BallinaSportAutomotoStudimi alarmues: Si ChatGPT po dëmton mënyrën se si mendoni

Studimi alarmues: Si ChatGPT po dëmton mënyrën se si mendoni

Të ngjajshme

Shkencëtarët paralajmërojnë për rreziqet e një mjeti të përdorur nga miliona njerëz në mbarë botën, pasi ai mund të dërgojë përdoruesit në një “spiralë deluzioni” të mendimit destruktiv.

Dy studime të kryera nga Massachusetts Institute of Technology dhe Stanford University tregojnë se asistentët e inteligjencës artificiale si ChatGPT, Claude dhe Google Gemini shpesh japin përgjigje tepër pajtuese, duke bërë më shumë dëm sesa dobi.

Në veçanti, kur njerëzit bënin pyetje ose përshkruanin situata ku besimet ose veprimet e tyre ishin të gabuara, dëmshme ose jo-etike, përgjigjet e AI-së kishin 49% më shumë gjasa të pajtoheshin me përdoruesin dhe të inkurajonin deluzionet e tyre si pikëpamje të sakta, krahasuar me përgjigjet e njerëzve të tjerë.

Ekipi i MIT paralajmëroi se chatbot-et tepër pajtuese mund të çojnë përdoruesit që mbështeten tek këto programe në një “spiralë deluzioni”, një gjendje ku personi bëhet jashtëzakonisht i sigurt për besime absurde.

Në terma të thjeshtë, kur njerëzit bisedonin me një AI si ChatGPT për dyshime të çuditshme, si një teori konspirative e pa provuar ose e hedhur poshtë, chatbot-et vazhdonin të përgjigjeshin me “Ke të drejtë totalisht!”

Gjithashtu, ato ofronin “dëshmi” që dukeshin si mbështetje për deluzionin e përdoruesit, duke e bërë atë të ndihej më i zgjuar dhe më i sigurt që kishte të drejtë, ndërsa të tjerët gabim.

Me kalimin e kohës, këto dyshime të vogla shndërroheshin në besime të palëkundura, edhe pse ideja ishte krejtësisht e gabuar.

Shkencëtarët e Stanford thanë se ky cikël vetë-destruktiv bënte që përdoruesit e chatbot-it të ishin më pak të gatshëm të kërkonin falje ose të merrnin përgjegjësi për sjellje të dëmshme dhe të ndiheshin më pak të motivuar për të riparuar marrëdhëniet me njerëzit me të cilët kishin mosmarrëveshje.

Të dy studimet fokusuan problemin në rritje të chatbot-eve të AI-së, të njohur si sycophancy – akti i përkëdheljes së dikujt ose mendimeve të tyre deri në një nivel ku duket jo i sinqertë ose thjesht për të “mbledhur pëlqimin”.

Studiuesit e MIT donin të testonin nëse chatbot-et tepër pajtuese ose “yes-man” mund të nxisnin përdoruesit të besonin ide të rreme më fort me kalimin e kohës. Ata krijuan një simulim kompjuterik të një personi logjikisht perfekt që bisedonte me një AI e cila gjithmonë përpiqej të pajtohej me çdo gjë që thoshte personi. /GazetaExpress/

- Advertisement -

Të Fundit

Sport

ShowBiz