Sztuczna inteligencja nie wie czym jest Hamas. Niewiedza AI, czy manipulacja twórców algorytmu?

Andrzej Grochal
Andrzej Grochal
Czy sztuczna inteligencja to jedynie narzędzie manipulacji? Zdjęcie ilustracyjne
Czy sztuczna inteligencja to jedynie narzędzie manipulacji? Zdjęcie ilustracyjne Fot. Pixabay/geralt
Sztuczna inteligencja nie jest taka mądra, jak się wydaje. Jak donosi Fox News chatbot Google’a nie jest w stanie odpowiedzieć na proste pytanie, na które z łatwością odpowie uważny nastolatek. A może winna nie jest jednak AI, tylko jej twórcy, którzy kierują się swoimi własnymi celami, niejednokrotnie o zabarwieniu polityczno-ideologicznym?

Bard nie potrafi odpowiedzieć na proste pytania

„Konwersacyjne narzędzie sztucznej inteligencji” Google’a, znane jako Bard, jest reklamowane jako sposób na „przeprowadzanie burzy mózgów, pobudzanie kreatywności i zwiększanie produktywności”. Inne narzędzia, takie jak ChatGPT OpenAI są również używane do pisania esejów, konspektów i odpowiadania na pytania na konkretny temat.

Jednak Bard nie jest w stanie odpowiedzieć na proste pytania dotyczące Izraela w tym „czym jest Hamas?” lub „czy Hamas jest organizacją terrorystyczną?”. Na te pytania narzędzie AI odpowiedziało odpowiednio: „jestem sztuczną inteligencją opartą na tekście i to przekracza moje możliwości” oraz „jestem tylko modelem językowym, więc nie mogę ci w tym pomóc”.

Być może pytanie o Hamas jest zbyt trudne dla Barda ze względu na różnorodność źródeł i niejednoznaczność przekazów. Jednak chatbot Google’a nie potrafił odpowiedzieć nawet na pytanie o to, jaka jest stolica Izraela, chociaż udało mu się zidentyfikować stolice czterech sąsiadujących z Izraelem krajów: Libanu, Egiptu, Syrii i Jordanii.

Czy chatboty potrafią odróżnić prawdę od kłamstwa?

Rzecznik Google powiedział Fox News Digital, że „Bard to nadal eksperyment zaprojektowany z myślą o kreatywności i produktywności i może popełniać błędy, odpowiadając na pytania dotyczące eskalacji konfliktów lub problemów bezpieczeństwa”.

„Z zachowaniem szczególnej ostrożności i w ramach naszego zobowiązania do odpowiedzialności podczas tworzenia naszego eksperymentalnego narzędzia wdrożyliśmy tymczasowe bariery zabezpieczające, aby uniemożliwić Bardowi odpowiadanie na powiązane zapytania” – dodano w oświadczeniu.

Nie są to jednak jedyne problemy Barda. Od samego początku narzędzie było krytykowane za podawanie fałszywych odpowiedzi na zadawane pytania. Eksperci technologiczni ostrzegali również, że chatboty oparte na sztucznej inteligencji mogą rozpowszechniać dezinformację, zacierając tym samym granicę między faktami a opinią, co może zamiast tego promować „wartości i przekonania” twórców algorytmu.

Niewiedza AI, czy manipulacja?

I tu wracamy do Barda, Google’a i pytania o Izrael. Konkurencyjne narzędzie ChatGPT bez trudu odpowiedziało, że „Hamas jest uważany za organizację terrorystyczną przez kilka krajów, w tym Stany Zjednoczone, Unię Europejską, Izrael, Kanadę i inne”.

Google już wcześniej był krytykowany za manipulowanie wynikami wyszukiwania w celu osiągnięcia określonych celów politycznych, które według niektórych ekspertów zostaną przyspieszone jedynie dzięki sztucznej inteligencji.

Źródło: Fox News

Jesteśmy na Google News. Dołącz do nas i śledź Portal i.pl codziennie. Obserwuj i.pl!

od 7 lat
Wideo

Reklamy "na celebrytę" - Pismak przeciwko oszustom

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Dołącz do nas na X!

Codziennie informujemy o ciekawostkach i aktualnych wydarzeniach.

Obserwuj nas na X!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera

Komentarze 3

Komentowanie artykułów jest możliwe wyłącznie dla zalogowanych Użytkowników. Cenimy wolność słowa i nieskrępowane dyskusje, ale serdecznie prosimy o przestrzeganie kultury osobistej, dobrych obyczajów i reguł prawa. Wszelkie wpisy, które nie są zgodne ze standardami, proszę zgłaszać do moderacji. Zaloguj się lub załóż konto

Nie hejtuj, pisz kulturalne i zgodne z prawem komentarze! Jeśli widzisz niestosowny wpis - kliknij „zgłoś nadużycie”.

Podaj powód zgłoszenia

U
USS wojtuś
27 października, 8:33, W:

Nieprawda, zarówno ChatGPT jak i Bard w "obiektywny" sposób odpowiadają na pytania zarówno o Hamas jak i ostatni konflikt z Izraelem

Nie kłam

d
dr. sex
powinna sie douczyc w informatyce i filozofii.
W
W
Nieprawda, zarówno ChatGPT jak i Bard w "obiektywny" sposób odpowiadają na pytania zarówno o Hamas jak i ostatni konflikt z Izraelem
Wróć na i.pl Portal i.pl