ChatGPT pokonany przez program komputerowy z lat 60. w badaniu Turinga

ChatGPT, OpenAI, ELIZA, test Turinga ChatGPT, OpenAI, ELIZA, test Turinga
ChatGPT pokonany przez program komputerowy z lat 60

ELIZA przewyższa współczesną sztuczną inteligencję pod tym względem, co jeden z badaczy określił jako „żenujące” dla OpenAI

Wczesny program komputerowy zbudowany w latach 60. XX wieku pokonał wirusowego chatbota AI ChatGPT w teście Turinga, zaprojektowanym w celu odróżnienia człowieka od sztucznej inteligencji.

Naukowcy z Uniwersytetu Kalifornijskiego w San Diego w USA przetestowali wczesny chatbot ELIZA, stworzony w połowie lat 60. XX wieku przez naukowca z MIT Josepha Weizenbauma, w porównaniu z nowoczesnymi wersjami tej technologii.

Odkryli, że ELIZA przewyższa sztuczną inteligencję GPT-3.5 OpenAI, która obsługuje bezpłatną wersję ChatGPT firmy .

Test Turinga stanowi punkt odniesienia przy określaniu zdolności maszyny do naśladowania ludzkiej rozmowy od czasu jego opracowania w 1950 roku przez brytyjskiego informatyka Alana Turinga.

W najnowszym badaniu 652 uczestników musiało ocenić, czy rozmawiają przez Internet z innym człowiekiem, czy z chatbotem AI.

Chatbot GPT-4 OpenAI, który jest potężniejszy niż darmowa wersja tej technologii, był w stanie oszukiwać uczestników badania częściej niż ELIZA, a wskaźnik sukcesu wyniósł 41%.

ELIZA potrafiła podawać się za człowieka w 27% przypadków, podczas gdy wskaźnik sukcesu GPT-3.5 wyniósł zaledwie 14%.

Ekspert ds. sztucznej inteligencji, Gary Marcus, opisał sukces ELIZA jako „zawstydzający” dla nowoczesnych firm technologicznych pracujących nad chatbotami AI.

„Myślę, że fakt, że GPT-3.5 przegrywa z ELIZĄ, nie jest aż tak zaskakujący, gdy czyta się tę gazetę” – napisał na X (dawniej Twitter) Ethan Mollick, profesor sztucznej inteligencji w Wharton School w USA.

„OpenAI uznało ryzyko podszywania się za poważne zagrożenie i wdrożyło RLHF [wzmacnianie uczenia się na podstawie informacji zwrotnych od ludzi], aby zapewnić, że ChatGPT nie będzie udawać człowieka”.

Jednym z powodów, dla których uczestnicy pomylili ELIZĘ z człowiekiem, odnotowanym w badaniu, było to, że „szkoda” być obecnym modelem sztucznej inteligencji. W związku z czym „bardziej prawdopodobne było, że był to człowiek celowo odmawiający współpracy”.

Arvind Narayanan, profesor informatyki w Princeton, który nie był zaangażowany w badania, powiedział: „Jak zawsze testowanie zachowań nie mówi nam o możliwościach. ChatGPT jest dopracowany tak, aby miał formalny ton, a nie wyrażał opinii itp., co czyni go mniej ludzkim.

Add a comment

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use
Advertisement