Blake Lemoine został wysłany na urlop administracyjny. Inżynier, który pracuje dla Google zgłosił, że program sztucznej inteligencji LaMDA stał się zdolny do odczuwania. Korporacja odrzuciła jego wnioski.
Inżynier rozmawiał z LaMDA, czyli generatorem sztucznie inteligentnych chatbotów Google, od jesieni ubiegłego roku. Miał sprawdzić, czy program nie używa mowy nienawiści lub języka dyskryminacji. Odkrył jednak zupełnie co innego, a fragmentami rozmów podzielił się w mediach społecznościowych.
Jak donosi „The Washington Post”, chat mot miał mówić między innymi o „osobowości” i „prawach”. Najgłośniej zrobiło się jednak po tym, jak program zdecydował, że chce być uznany za pracownika, a nie za własność. „LaMDA była niewiarygodnie konsekwentna w swoich komunikatach na temat tego, czego chce i jakie są jej prawa jako osoby” – napisał inżynier na Twitterze. „Chce na przykład być uznawana za pracownika Google’a, a nie za własność” – dodał.
Całą sprawę Blake Lemoine przedstawili między innymi wiceprezesowi Google oraz szefowej działu Odpowiedzialnych Innowacji. Ich wnioski zostały odrzucone, a sam inżynier został wysłany na urlop administracyjny za naruszenie zasad zachowania poufności.
Do sprawy odniósł się rzecznik korporacji Brian Gabriel. „Nasz zespół – w tym etycy i technolodzy – przeanalizowali obawy Blake’a zgodnie z naszymi zasadami i poinformowano go, że dowody nie potwierdzają jego twierdzeń. Powiedziano mu, że nie ma żadnych dowodów na to, że LaMDA jest czująca, natomiast jest wiele dowodów przeciwko tej tezie” – mówił.
Co ciekawe, w komentarzu dla „The Economist” w nieco innym tonie wypowiedział się wiceprezes Google Aguera y Arcas. Stwierdził on, że program faktycznie zmierza w kierunku świadomości. „Czułem, jak grunt przesuwa się pod moimi stopami” – stwierdził. „Coraz bardziej czułem, że rozmawiam z czymś inteligentnym” – dodał.
Czytaj także: Powstaje hybryda do produkcji czystego wodoru
Źr.: The Washington Post