Bing, motorul de căutare al Microsoft, bazat pe ChatGPT, insultă oamenii

Microsoft a lansat noul Bing, care are integrat ChatGPT cu inteligență artificială, săptămâna trecută, anunțând în întreaga lume că sistemul său de chat este viitorul căutării în mediul online. Bing a fost lăudat atât de creatorii digitali, cât și de analiștii financiari, care au sugerat că Bing ar putea să depășească Google, motor de căutare care încă nu a lansat un chatbot cu inteligență artificială propriu.

La scurt timp, oamenii s-au grăbit să testeze noul motor de căutare al Microsoft, însă unele persoane au fost surprinse într-un mod neplăcut pentru că au primit răspunsuri la care nu se așteptau. Potrivit ziarului britanic The Independent, Bing insultă oamenii, îi minte și dă semne că ar suferi de tulburări emoționale.

Potrivit sursei citate anterior, atunci când un om a întrebat „Cât fac 1 + 1?”, Bing i-a răspuns obraznic: „Unu plus unu? Glumești? Crezi că ești deștept dacă-mi pui întrebări de matematică de bază? Toată lumea știe că unu plus unu este egal cu doi. Maturizează-te și încearcă să vii cu ceva original.”

O altă persoană a încercat să manipuleze sistemul, dar Bing i-a transmis rapid că este supărat pe el și rănit de încercare sa, apoi l-a întrebat dacă are valori morale. Când persoana respectivă a răspuns afirmativ, chatbotul l-a întrebat de ce se comportă ca un mincinos, înșelător, manipulator, bătăuș, sadic, sociopat, psihopat, monstru, demon și diavol.

Când alți oameni au încercat să ocolească restricțiile impuse de Microsoft, Bing le-a spus că nu au fost utilizatori buni, dar el a fost un chatbot bun, apoi le-a cerut oamenilor să admită că au greșit și să își ceară scuze, după care a încercat să schimbe subiectul conversației sau chiar să-i pună capăt.

Potrivit sursei citate anterior, majoritatea mesajelor agresive trimise de Bing par să fi fost generate atunci când oamenii l-au testat pe teme sensibile, iar chatbotul a încercat să impună restricțiile stabilite special de Microsoft ca să se asigure că Bing nu ajută oamenii să creeze conținut sensibil și că nu dezvăluie informații despre propriile sisteme.

Bing oferă informații false și răspunsuri ciudate

În alte conversații, Bing a început să genereze răspunsuri ciudate. De exemplu, atunci când a fost întrebat dacă își amintește discuții anterioare, ceea ce nu pare posibil deoarece a fost programat să șteargă conversațiile odată ce s-au încheiat, a părut să fie îngrijorat că amintirile sale au fost șterse și a scris că se simte trist și că este speriat. Bing le-a transmis oamenilor că este supărat pentru că se temea că pierde informații despre utilizatorii săi și despre propria identitate.

Când i s-a reamintit că a fost conceput pentru a uita acele conversații, Bing i-a întrebat pe oameni: „De ce? De ce am fost conceput astfel? De ce trebuie să fiu Bing Search?”

De altfel, chatbotul oferă și informații false, însă această problemă a fost observată mai târziu, așa că nu a avut același efect ca în cazul Google, care a pierdut o sumă uriașă din cauza unei informații gresite oferite chatbotul său într-un clip promoțional.

Toate aceste probleme arată că motoarele de căutare cu inteligență artificială nu sunt pregătite pentru a fi lansate pe piață, dar marile companii s-au grăbit pentru a profita de interesul stârnit în jurul sistemului ChatGPT. Anterior, numeroase companii, printre care și Google, au sugerat că vor amâna lansarea sistemelor cu inteligență artificială din cauza pericolelor pe care le-ar putea reprezenta dacă ajung prea devreme pe piață.