-0.4 C
Pristina
spot_img

OpenAI formon një ekip për të studiuar rreziqet katastrofike që vinë nga inteligjenca artificiale

Date:

Share:

OpenAI liston disa prej hapësirave me rrezik të lartë si kërcënimet biologjike, radiologjike dhe nukleare që mund të vinë nga modelet AI.

OpenAI ditën e Enjte njoftoi formimin e një ekipi të ri që do të vlerësojë dhe konsiderojë rreziqet që vinë nga modelet AI përballë situatave që kompania i përshkruan si “rreziqe katastrofike.”

Ekipi, quajtur Gatishmëria, do të udhëhiqet nga Aleksander Madry, drejtor i Qendrës për Implementimin e Machine Learning pranë MIT. Përgjegjësitë e tij do të jenë gjurmimi, parashikimi dhe mbrojtja nga rreziqet që mund të sjellin në të ardhmen sistemet AI siç është aftësia e tyre për të mashtruar njerëzit tek potenciali për gjenerimin e maluerëve.

OpenAI liston disa prej hapësirave me rrezik të lartë si kërcnimet biologjike, radiologjike dhe nukleare që mund të vinë nga modelet AI.

CEO i OpenAI, Sam Atlman, është prej atyre që kanë shprehur shqetësim për rrezikun që inteligjenca artificiale sjell për njerëzimin. Madje ai ka thënë se mund të çojë në zhdukjen e njerëzimit.

Kompania tha se ekipi i Gatishmërisë do të ngarkohet me formulimin e një politike zhvillimi të informuar për rrezikun e cila do të udhëheqë qasjen e OpenAI në ndërtimin dhe vlerësimin e modeleve AI për zbutjen e rrezikut. /PCWorld Albanian

Abonohuni

━ artikuj të ngjashëm

7 Arsye pse ndryshimi mund të dështojë | Si ndryshimi shkon keq

Ka shumë gjëra që duhen bërë siç duhet që ndryshimi të ketë sukses. Nga përfshirja e njerëzve deri te përmbushja e angazhimit për ndryshim. Por identifikimi...
spot_img