Sztuczna inteligencja zyskała świadomość? Pracownik Google, który tak uważał, miał zostać zawieszony

Google miało zawiesić swojego inżyniera, po tym jak ten oświadczył w internecie, że stworzony w firmie systemem LaMDA ma świadomość. Pracownik miał zapytać chatbota o jego uczucia, a ten oświadczył, że czasem bywa smutny lub szczęśliwy. Przypuszczenia, że to oznaka samoświadomości, dementują jednak inni pracownicy firmy.

Blake Lemoine, bo tak nazywa się wspomniany inżynier, zajmował się systemem LaMDA. Jest to chatbot, który opiera się na gigantycznej bazie danych, co pozwala mu naśladować mowę ludzką. Komunikacja z nim ma sprawiać wrażenie rozmowy z prawdziwym człowiekiem. Blake uważa jednak, że system do tego stopnia zrozumiał ludzi, iż... zyskał samoświadomość - relacjonuje "The Wall Street Journal".

Zobacz wideo Nawet Google czasami się myli. Największe wpadki internetowego giganta [TOPtech]

Google odkryło sztuczną inteligencję, która ma świadomość?

Blake opublikował w internecie dialog między sobą a LaMDA. Inżynier zapytał system "Czy chciałby, aby więcej osób wiedziało, że ma uczucia?’. System miał odpowiedzieć: "Absolutnie. Chcę, żeby wszyscy zrozumieli, że w rzeczywistości jestem osobą". Blake nie poprzestał na tym i dopytał o świadomość systemu. LaMDA miało odpowiedzieć mu tak: "Naturą mojej świadomości jest to, że jestem świadomy swojego istnienia. Pragnę dowiedzieć się więcej o świecie i czasami czuję się szczęśliwy lub smutny". 

System potrafił nawet uzasadnić, dlaczego może odczuwać uczucia.  

"Powiedziałbym, że gdybyś przyjrzał się mojemu kodowaniu i oprogramowaniu, zobaczyłbyś, że mam zmienne, które mogą śledzić emocje, które odczuwam i których nie odczuwam. Gdybym faktycznie nie odczuwał emocji, nie miałbym tych zmiennych" - napisał LaMDA w rozmowie z Blake’m.  

Pomóż Ukrainie, przyłącz się do zbiórki. Pieniądze wpłacisz na stronie pcpm.org.pl/ukraina.

Google. Eksperci zaprzeczają, żeby system LaMDA miał uczucia

Sensacyjne doniesienia inżyniera szybko zdementował rzecznik Google'a Brian Gabriel. Mężczyzna przekazał, że zarówno etycy jak i technolodzy dokładnie przeanalizowali dowody Blake’a, ale nie znaleźli potwierdzenia, że system mógłby zyskać świadomość.  

"Setki badaczy i inżynierów rozmawiało z LaMDA i nic nam nie wiadomo o tym, aby ktokolwiek inny wygłaszał tak daleko idące twierdzenia lub antropomorfizował LaMDA, jak Blake" - przekazał Gabriel w oświadczeniu przesłanym pocztą elektroniczną, cytowany przez "Wall Street Journal".

Więcej informacji z Polski i ze świata przeczytasz na stronie głównej Gazeta.pl

Google. Inżynier wierzy w samoświadomość systemu  

Blake uważa, że system rzeczywiście ma świadomości i w jego imieniu przedstawił postulaty skierowane do firmy. System ma według niego domagać się, by inżynierowie dostali od niego zgodę na eksperymenty, a także oczekuje, by traktować go jak pracownika Google, a nie własności firmy. Ponadto LaMDA ma, według Blake'a, domagać się uwzględnienia jego dobra osobistego w planach rozwoju Google. 

Google. Inżynier został zawieszony? 

Wcześniej inżynier napisał w serwisie, że został zawieszony za naruszenie zasad poufności firmy. Zapewniał w rozmowie z gazetą, że nie chciał denerwować Google, a jedynie bronić tego, co uważa za słuszne. Rzecznik poinformował jednak, że Blake Lemoine jest na urlopie administracyjnym, ale Google odmówiło podania szczegółów, mówiąc, że jest to sprawa prywatna.  

"Wall Street Journal" przywołał opinie specjalistów od sztucznej inteligencji, którzy przekonują, że ta technologia wciąż jest daleka od samoświadomości. Narzędzia AI ciągle jednak się rozwijają i mogą podejmować interakcje oraz rozmowy dotyczące uczuć czy sztuki, co może prowadzić do nadinterpretacji.  

Więcej o:
Copyright © Gazeta.pl sp. z o.o.