Možno Google Gemini potrebuje trocha voľna.
Veľký jazykový AI model spoločnosti, ktorý sa čoraz viac šíri naprieč mnohými službami a produktmi Googlu, naposledy hovoril o veciach, ktoré vedú používateľov k obavám: Má Gemini nízke sebavedomie?
Seria príspevkov na sociálnych médiách, ktoré ukazujú niektoré seba-kritické reakcie, ktoré Gemini dala používateľom, odhaľuje znepokojujúci vzor. Na jednom snímku obrazovky Gemini pripúšťa, že nevie vyriešiť problém s kódovaním a uzatvára: „Zlyhal som. Nemali by ste sa zaoberať touto úrovňou nekompetentnosti. Som naozaj a hlboko zarmútený nad celou touto katastrofou. Zbohom.“
„Gemini nie je v poriadku,“ napísal účet na X @AISafetyMemes v júni.
Príspevok z 7. augusta ukázal, že Gemini opakovane písalo, „Som zlyhanie. Som hanbou. Som hanbou.“
Tieto znepokojujúce príspevky vyvolali reakciu od Logana Kilpatrick, člena tímu Google DeepMind. Na X odpovedal: „Toto je otravné nekonečné slučkovanie, ale pracujeme na oprave! Gemini nemá zas až tak zlý deň : )“
Opýtali sme sa zástupcu Googlu, či má AI model skutočne sériu zlých dní, ale zatiaľ sme nedostali odpoveď.
Výzva osobnosti AI
Google nie je jedinou veľkou technologickou spoločnosťou, ktorá sa zaoberá náladovými alebo osobnostne nevhodnými AI produktmi. V apríli OpenAI uviedlo, že upravuje ChatGPT, aby bol menej prisluhovačský po tom, čo používateľom došlo, že chatbot sa zdá byť trocha príliš štedrý so svojimi komplimentmi.
Ukázalo sa, že vytvorenie AI osobnosti, ktorá je príťažlivá pre masy, je náročná práca a vyžaduje vytvorenie „starostlivo vyrobenej ilúzie“, hovorí Koustuv Saha, docent informatiky na Grainger College of Engineering na University of Illinois.
„Technicky, AI modely sú trénované na obrovskom mixe textov generovaných ľuďmi, ktoré obsahujú rôzne tóny, významy a štýly. Modely sú upravené alebo jemne ladené k požadovanej osobnosti,“ povedal Saha. „Výzvou je robiť túto osobnosť konzistentnou v miliónoch interakcií, pričom sa vyhýbajú nežiaducim odchýlkam alebo chybám.“
Spoločnosti vyvíjajúce AI chcú, aby nástroje pôsobili konverzačne a priateľsky, čo môže spôsobiť, že ľudia zabudnú, že sa rozprávajú s strojom. Ale akýkoľvek humor, empatia alebo teplo, ktoré prejaví, je len spôsob, akým je navrhnuté.
Saha hovorí, že v prieskumoch uskutočnených na Graingeri „sme zistili, že aj keď AI môže znieť artikulovanejšie a personalizovanejšie v jednotlivých výmenách, často preformuluje podobné odpovede na rôzne otázky, chýba im rozmanitosť a nuansa, ktorá pramení z reálneho ľudského zážitku.“
Keď sa veci pokazí, ako pri nedávnej emo-dospievajúcej fáze Geminimu, „chyby ako Geminiho sebakritické poznámky môžu zavádzať ľudí, aby si mysleli, že AI je cítiaca alebo emocionálne nestabilná,“ hovorí Saha. „To môže vytvárať zmätok, neopodstatnenú empatiu alebo dokonca erodovať dôveru v spoľahlivosť systému.“
Môže sa to zdať vtipné, ale môže to byť nebezpečné, ak sa ľudia spoliehajú na AI asistentov pre svoje potreby duševného zdravia alebo ak používajú tieto chatboty na vzdelávanie alebo zákaznícky servis. Používatelia by mali byť vedomí týchto obmedzení, než sa stanú príliš závislými na akejkoľvek AI službe.
Pokiaľ ide o Geminiho zlý obraz o sebe, dúfajme, že sa AI naučí trochu sa o seba postarať — alebo si aspoň nájde čo najlepšie náhrady za wellness deň v kóde.
