reklama
reklama

Czy sztuczna inteligencja zastąpi człowieka? Na razie sama bez niego nie istnieje. Jak dziś uczy się AI?

Opublikowano:
Autor: | Zdjęcie: pixabay

Czy sztuczna inteligencja zastąpi człowieka? Na razie sama bez niego nie istnieje. Jak dziś uczy się AI? - Zdjęcie główne

Sztuczna inteligencja w dużej mierze zależy dziś jeszcze od człowieka. Czy dojdziemy do perfekcyjnego systemu komputerowych połączeń neuronowych? | foto pixabay

reklama
Udostępnij na:
Facebook

Przeczytaj również:

Wiadomości Nie ma sztucznej inteligencji bez zespołów pracujących nad nią ludzi. Choć tempo rozwoju AI zaskakuje nawet samego jej pioniera, to celem jej powstania nie było wyeliminowanie gatunku ludzkiego, a przyspieszenie naszej pracy. Czy to już ten moment rewolucji, że powinniśmy obawiać się o naszą użyteczność i zajmowane miejsca pracy?
reklama

Jeszcze nie tak dawno sztuczna inteligencja była główną, a nawet tytułową bohaterką filmów science fiction. Tymczasem odległa przyszłość powoli staje się rzeczywistością i stwarza właściwie miejsce na dobre kino dokumentalne. Neuronowe sieci komputerowe, choćby najpopularniejszy dziś ChatGPT, są w tej chwili na wyciągnięcie ręki. Z AI mogą korzystać nie tylko wyspecjalizowani inżynierowie techniczni, ale każdy użytkownik internetu, w tym ci najmłodsi. Coraz częściej pojawia się więc pytanie, w jakim stopniu sztuczna inteligencja dorównuje dziś już ludzkiej i czy jej rozwój na pewno zmierza w dobrym kierunku.

W jaki sposób lingwiści uczą „myśleć” nową technologię?

Za głównego pioniera sztucznej inteligencji uznaje się Geoffrey’a Hintona, brytyjsko-kanadyjskiego psychologa poznawczego i informatyka, którego pracę nad głębokimi sieciami neuronowymi w 2018 roku doceniono wysokiej rangi Nagrodą im. Alana Turinga, nazywaną informatycznym Noblem. Początkowo powstanie sztucznej inteligencji ogólnej, czyli systemu posiadającego nawet samoświadomość, naukowiec planował za 30-50 lat. Nie wykluczał, że nastąpi to nawet jeszcze dalej. W marcu 2023 r. w wywiadzie dla kanadyjskiej telewizji CBS Hinton stwierdził jednak, że sztuczna inteligencja ogólnego przeznaczenia może już powstać za mniej niż dwie dekady i przynieść zmiany „porównywalne w skali z rewolucją przemysłową lub elektrycznością”.

Choć ludzka kontrola nie jest wymagana nad każdym algorytmem, to w tym momencie jeszcze wiele systemów sztucznej inteligencji nie pracuje sama. Częścią jej danych steruje po prostu człowiek.

Metody można podzielić na rozwiązania oparte o uczenie nadzorowane, nienadzorowane i częściowo nadzorowane. Wybiera się je w zależności od typu zadania. Mówiąc o nadzorze, mamy na myśli ingerencję ludzi w oznaczanie danych, czy dawanie informacji zwrotnej na temat tego, jak algorytm radzi sobie z powierzonym zadaniem

– tłumaczy Marzena Żyła, annotatorka (osoba, która tworzy komentarze objaśnające – red.) i lingwistka, która pracuje przy projektach związanych ze sztuczną inteligencją.

Praktyczne funkcjonowanie AI, a zarazem proces jej uczenia się, doskonale pokazuje działanie algorytmów do rozpoznawania obrazów. W pierwszym etapie to algorytm sam ocenia, czy na danym zdjęciu jest – przykładowo – pies czy kot. Następnie część wyników analizują annotatorzy, stwierdzając, czy zdjęcia zostały dobrze rozpoznane i ewentualnie poprawiają błędne odpowiedzi. Na koniec ulepszone dane wprowadzają do systemu. – Z oczywistymi i najczęstszymi rzeczami, niezależnie od tematu, algorytmy radzą sobie zwykle dobrze. Problemy pojawiają się przy nieoczekiwanych kontekstach. Pamiętam taki przykład, gdzie algorytm dobrze radził sobie z rozpoznawaniem owiec, ale szybko okazało się, że tylko wtedy, kiedy owce są na pastwisku. Zdjęcie owcy na schodach już było zagadką – opowiada Marzena Żyła. Można więc powiedzieć, że uczenie się sztucznej inteligencji opiera się głównie na najprostszej na świecie metodzie prób i błędów.

Sztuczna inteligencja jest tak dobra, jak dane, którymi dysponuje

Wśród społeczeństwa panuje jednak przekonanie, że jeśli komputer coś zrobił, to efekt tego musi być doskonały. – Tylko należy wziąć pod uwagę fakt, że nad algorytmami pracują ludzie. Więc sztuczna inteligencja jest tak dobra, jak wprowadzone dane. A w nich mogą być błędy – zwraca uwagę Marzena Żyła, która twierdzi, że współczesność jest jeszcze daleka od ogólnej sztucznej inteligencji. Jak mówi ekspertka, nie widzi też uzasadnienia dla pojawiających się z każdej strony głosów wieszczenia końca różnych zawodów.

W medycynie sztuczna inteligencja pomaga w stawianiu diagnoz i rozpoznawaniu obrazów, ułatwiając przejście przez ogrom danych, ale trudniejsze przypadki czy ostateczną diagnozę i tak pozostawia lekarzom

– zauważa annotatorka. Omawiane struktury przyspieszają dziś głównie działania bardzo czasochłonne, takie jak na przykład wprowadzanie i katalogowanie danych. Co ciekawe, w tym przypadku bilans popełnianych przez nową technologię błędów jest mniej więcej taki sam, jak u człowieka. – Szczególny problem dotyczy teraz artystów wizualnych, bo wiele algorytmów tworzących obrazy wykorzystało ich dane do trenowania. To sprawiło, że każdy może zrobić sobie ilustrację ,,za darmo” – mówi Marzena Żyła. Kłopot twórców graficznych mogłoby, a w zasadzie powinno, rozwiązać prawo. Ono jednak, jak na razie, nie nadąża za postępem technologii.

Marzena Żyła podkreśla więc, że dziś szczególną uwagę należy poświęcić się czuwaniu nad bezpieczeństwem i aspektami prawnymi nowych systemów. – Trzeba pamiętać, że sztuczna inteligencja może być wykorzystywana do robienia deepfake’ów (technika obróbki obrazu, polegająca na łączeniu obrazów twarzy ludzkich – red.)  – podkreśla specjalistka. Bywa jednak, że błędy zostają popełnione nieświadomie.

Można zrobić to przypadkowo, wprowadzając dane, w których nie ma odpowiednich grup reprezentacyjnych. Na przykład algorytmy używane w pewnym oprogramowaniu, które miały ułatwić HR-om wybór kandydatów do zatrudnienia, nieproporcjonalnie często wybierały na stanowiska managerskie mężczyzn. Algorytm najprawdopodobniej wydedukował to z historycznych danych, ponieważ kiedyś na tych stanowiskach dominowała faktycznie płeć męska

– opowiada annotatorka. Podobna sytuacja miała zresztą miejsce, gdy opartego na sztucznej inteligencji chatbota Tay Microsoftu podłączono do Twittera, by uczył się od jego użytkowników. Tay przez 16 godzin dodał ok. 96 tys. wpisów, stawszy się przy tym miłośnikiem Hitlera i nazistą. Chatbot nie odzwierciedlał jednak ludzkości jako takiej, a wyłącznie specyficzną grupę specjalnie trollujących go użytkowników.

Rozwój AI wymknął się spod kontroli. Technologii boi się już sam Hinton

Ekspertka nie wchodzi w dyskusje o tym, czy sztuczna inteligencja jest dobra czy zła. – Z nią jest podobnie jak z internetem. To tylko narzędzie, a jak zostanie wykorzystane, to już sprawa ludzi – mówi.

Niestety, jak powiedział sam ojciec chrzestny AI, Geoffrey Hinton, w społeczeństwie są też ,,źli aktorzy”, którzy wykorzystują nową technologię do ,,złych rzeczy”. Obecnie największym problemem nie jest więc już to, jak stworzyć doskonałą sztuczną inteligencję, ale jak przeciwdziałać jej nieodpowiedzialnym użytkownikom. Tego jednak – jak przyznał – nie wie sam wynalazca. Czy więc Geoffrey Hinton będzie odpowiedzialnym nie tylko za sztuczną inteligencję, ale też koniec świata? Po swoim odejściu z Google i globalnym ostrzeżeniu przed AI, w udzielonym 1 maja 2023 r. "New York Times" wywiadzie, pocieszał się tymi słowami:

Gdybym ja tego nie zrobił, zrobiłby to ktoś inny.

reklama
reklama
Udostępnij na:
Facebook
wróć na stronę główną

ZALOGUJ SIĘ - Twoje komentarze będą wyróżnione oraz uzyskasz dostęp do materiałów PREMIUM.

e-mail
hasło

Nie masz konta? ZAREJESTRUJ SIĘ Zapomniałeś hasła? ODZYSKAJ JE

reklama
Komentarze (0)

Wysyłając komentarz akceptujesz regulamin serwisu. Zgodnie z art. 24 ust. 1 pkt 3 i 4 ustawy o ochronie danych osobowych, podanie danych jest dobrowolne, Użytkownikowi przysługuje prawo dostępu do treści swoich danych i ich poprawiania. Jak to zrobić dowiesz się w zakładce polityka prywatności.

Wczytywanie komentarzy
reklama