OpenAI nga tani ka filluar të marrë masa për luftimin e dezinformatave përpara zgjedhjeve presidenciale në SHBA që mbahen në nëntor të këtij viti.
Startupi i Inteligjencës Artificiale njoftoi mjete të reja për t’i ndihmuar përdoruesit të përcaktojnë nëse një imazh është krijuar nga softueri i tij me AI. Mjeti i OpenAI, DALL-E është një mjet mjaft i njohur për gjenerimin e imazheve nga teksti.
Rreziqet në prag të zgjedhjeve vijnë për sa i përket krijimit të videove të manipuluara të ashtuquajturat “deepfakes” që mund të përdoren për qëllime dashakeqëse dhe përmbajtje të tjera të prodhuara nga AI që mund të çorientojnë votuesit gjatë fushatave.
“Mbrojtja e integritetit të zgjedhjeve kërkon bashkëpunim nga çdo cep i procesit demokratik dhe ne duam të sigurohemi që teknologjia jonë të mos përdoret në një mënyrë që mund të minojë këtë proces”, shkroi kompania në një postim në blog të hënën.
Ajo se çfarë do të bëjë OpenAI është të ndihmojë përdoruesit të identifikojnë nëse ndonjë imazh është gjeneruar me mjetin e saj DALL-E 3 dhe do të tregojë rreth origjinës së asaj përmbajtjeje si për shembull kush e ka prodhuar imazhin dhe kur është bërë. Kjo mund t’i ndihmojë votuesit të kuptojnë më mirë nëse imazhet që shohin në ueb janë bërë me AI.
Për këto masa parandaluese të përhapjes së dezinformata ka njoftuar edhe inxhinierja shqiptare, Mira Murati e cila njëherësh është shefe e teknologjisë në kompaninë OpenAI.