#222 Sztuczna inteligencja – kto decyduje gdzie zmierza rewolucja AI? | prof. Aleksandra Przegalińska

Radio Naukowe

📖 Poznaj nasze wydawnictwo: https://radionaukowe.pl/wydawnictwo
🎙️ Transkrypcja na radionaukowe.pl
❤️ Wesprzyj rozwój: patronite.pl/radionaukowe lub suppi.pl/radionaukowe

Szeroko dyskutowane były tegoroczne Nagrody Nobla, szczególnie te z fizyki i chemii. Czy nagrodzono fizyków i chemików czy raczej naukowców praktykujących „computer science”?

Przypomnijmy, w dziedzinie fizyki nagrodzeni zostali John Hopfield i Geoffrey Hinton za fundamentalne odkrycia i wynalazki, które umożliwiają uczenie maszynowe za pomocą sztucznych sieci neuronowych, a w dziedzinie chemii David Baker za projektowanie nowych białek przy użyciu narzędzi komputerowych, Demis Hassabis i John Jumper za stworzenie modelu sztucznej inteligencji AlphaFold2.

Wydaje się, że ich praca wykracza poza tradycyjny podział dyscyplin naukowych. – Nie mamy jeszcze nazw dla dyscyplin, które na naszych oczach się wykuwają – wskazuje filozofka i badaczka nowych technologii, prof. Aleksandra Przegalińska. To jedna z czołowych polskich specjalistek od AI, więc naturalnie rozmawiamy o tej technologii, jej rozwoju, przyszłości i zagrożeniach.

W pracach nad technologiami AI na razie zdecydowanie przodują Amerykanie, gdzie narzędzia AI są rozwijane głównie przez prywatny biznes. – Można by się pokusić o stwierdzenie, że w jakimś sensie tę nagrodę Nobla dostała firma Google – pół żartem, pół serio zauważa prof. Przegalińska. – Geoffrey Hinton dostał Nobla za to, co stworzył koncepcyjnie jeszcze przed pracą w firmie Google, ale spędził tam kilkanaście lat, rozwijając te algorytmy. Google to firma, która bardzo konsekwentnie sztuczną inteligencję u siebie rozwijała. I Hinton jest tego siłą napędową. Z drugiej strony AlphaFold to system wymyślony m.in. przez Demisa Hassabisa w Deep Mind, która jest spółką-córką Google'a – dodaje naukowczyni.

Zdaniem prof. Przegalińskiej, Europa jest bardziej ostrożna, na razie przygląda się zastosowaniom AI i próbuje je regulować. Europejskie warunki mogą jednak zaowocować czymś naprawdę ciekawym i pożytecznym: mamy możliwość stworzenia wielu wspieranych przez państwo modeli AI w swoich językach narodowych, karmionych danymi w naszym języku. Takie modele mogą być bardziej wiarygodne i „solidniejsze” w użytkowaniu niż wielki, amerykański Chat GPT.

A dlaczego Chat GPT tak często zmyśla (określa się to „haluconywaniem”) i nie potrafi powiedzieć „nie wiem”? To trochę wina tego, na jakich źródłach był trenowany (m.in. internetowe forum Reddit), a trochę nas, użytkowników. Zdarza się nam podawać chatowi słabe prompty (wypluwa wtedy odpowiedzi niższej jakości) czy wykorzystywać treści wygenerowane przez chat bez żadnych zmian czy korekty. Kiedy trafiają do internetu w takiej formie, stają się częścią dostępnych dla chata zasobów, który w efekcie… uczy się na podstawie własnych treści. To powoduje wyraźny spadek jakości jego dalszych tworów. – Powinniśmy wziąć trochę więcej odpowiedzialności na siebie – wskazuje prof. Przegalińska.

Z odcinka dowiecie się też, co myślą o kierunku rozwoju AI jej twórcy, jakie są inne ciekawe rozwiązania (nie tylko Chat GPT), ile wiemy o tym, jak dokładnie działają modele AI (co z tą „czarną skrzynką”), jak edukować w kwestii obsługi AI i do czego prof. Przegalińska używa swojego awatara (i czy nie jest jej dziwnie z tym, że istnieje). Polecam, temat ważny, który zostanie z nami na kolejne lata.

للاستماع إلى حلقات ذات محتوى فاضح، قم بتسجيل الدخول.

اطلع على آخر مستجدات هذا البرنامج

قم بتسجيل الدخول أو التسجيل لمتابعة البرامج وحفظ الحلقات والحصول على آخر التحديثات.

تحديد بلد أو منطقة

أفريقيا والشرق الأوسط، والهند

آسيا والمحيط الهادئ

أوروبا

أمريكا اللاتينية والكاريبي

الولايات المتحدة وكندا