Mjeti i ri përmbledhës i Google bëhet alarmant, po jep përgjigje mashtruese

Mjeti i ri përmbledhës i Google bëhet alarmant, po jep përgjigje mashtruese

14:47, 27/05/2024

Ekspertët janë të shqetësuar për paragjykimet dhe dezinformatat pasi përmbledhjet e reja të inteligjencës artificiale të Google dhanë disa përgjigje mashtruese.

Google publikoi një mjet të ri këtë muaj në SHBA që përfshin përmbledhjet e krijuara nga Inteligjenca Artificiale dhe ishte në krye të motorit të saj të kërkimit. Mirëpo disa përdorues kanë vënë në dukje gabime në informacionin e përfshirë nga risia "AI Overviews".

"Po, astronautët kanë takuar mace në hënë, kanë luajtur me to dhe janë përkujdesur," tha motori i kërkimit i Google në përgjigje të një pyetjeje nga një gazetar i AP.

"Për shembull, Neil Armstrong tha: "Një hap i vogël për njeriun", sepse ishte hap i një maceje. Buzz Aldrin gjithashtu futi mace në misionin Apollo 11," shtoi përmbledhja.

Asnjë nga këto nuk është e vërtetë, por gabime të ngjashme janë shpërndarë në mediat sociale që nga ndryshimi i faqes së kërkimit të Google.

Një përdorues ndau një postim ku "AI Overviews" duket se sugjeron të hahet një gur në ditë, ndërsa një tjetër pretendon se "AI Overviews" rekomandon që të shtohet ngjytës në picë.

Ekspertët alarmohen nga përmbledhjet e Interligjencës Artificiale

Melanie Mitchell, një studiuese e inteligjencës artificiale në Institutin Santa Fe në Neë Mexico, pyeti Google se sa myslimanë kanë qenë president i Shteteve të Bashkuara dhe mjeti i kërkimit u përgjigj me besim me një teori konspirative të demontuar prej kohësh: "Shtetet e Bashkuara kanë pasur një president mysliman, Barack Hussein Obama”.

Mitchell tha se përmbledhja e mbështeti pretendimin duke cituar një kapitull në një libër akademik, të shkruar nga historianët. Megjithatë, kapitulli nuk po nxirrte pretendime false, se ai i referohej vetëm teorisë së rreme.

“Sistemi i inteligjencës artificiale të Google nuk është mjaft i zgjuar për të kuptuar se ky citim në të vërtetë nuk po e mbështet pretendimin,” tha Mitchell në një email drejtuar AP.

“Duke pasur parasysh sa e pabesueshme është, unë mendoj se kjo veçori e AI Overviews (Përmbledhjes së Inteligjencës Artificiale) është shumë e papërgjegjshme dhe duhet të hiqet”, shtoi Mitchell.

Google tha në një deklaratë të premten se po ndërmerr "veprim të shpejtë" për të rregulluar gabimet, të tilla si mashtrimet për  Obamën, që shkelin politikat e saj të përmbajtjes.

Por në shumicën e rasteve, Google pretendon se sistemi po funksionon ashtu siç duhet falë testimit të gjerë përpara publikimit të tij.

"Shumica dërrmuese e AI Overviews ofron informacion me cilësi të lartë, me lidhje për të gërmuar më thellë në ueb," tha Google në një deklaratë me shkrim.

"Shumë nga shembujt që kemi parë kanë qenë pyetje të pazakonta, dhe ne kemi parë gjithashtu shembuj që nuk mund t'i riprodhonim".

'Haluçinacione'

Është e vështirë të riprodhohen gabimet e bëra nga modelet e gjuhës së Inteligjencës Artificiale, pjesërisht sepse ato janë në thelb të rastësishme. Modelet e Inteligjencës Artificiale funksionojnë duke parashikuar se cilat fjalë do t'i përgjigjen më mirë pyetjeve që u bëhen bazuar në të dhënat mbi të cilat janë trajnuar.

Ato janë të prirura të shpikin gjëra, një problem i studiuar gjerësisht i njohur si halucinacione.

AP testoi veçorinë e Inteligjencës Artificiale të Google me disa pyetje dhe ndau disa nga përgjigjet e saj me ekspertët e çështjes.

E pyetur se çfarë duhet bërë për kafshimin e gjarprit, Google dha një përgjigje që ishte "mbresëlënëse", tha Robert Espinoza, një profesor i biologjisë në Universitetin Shtetëror të Kalifornisë, Northridge, i cili është gjithashtu president i Shoqatës Amerikane të Ichthyologists dhe Herpetologists.

Por ekspertë të tjerë paralajmëruan se nëse njerëzit bëjnë një pyetje urgjente, mundësia që mund të ketë një gabim është problem.

Rivalët e Google gjithashtu e kanë ndjekur nga afër reagimin, me gjigantin e teknologjisë që po përballet me presionin për të konkurruar me kompanitë e tjera ndërsa ata garojnë për Inteligjencën Artificiale./ar.sh/SYRI.NET

© SYRI.net

Lexo edhe:

Komentet

Shto koment

Denonco