OpenAI liston disa prej hapësirave me rrezik të lartë si kërcënimet biologjike, radiologjike dhe nukleare që mund të vinë nga modelet AI.
OpenAI ditën e Enjte njoftoi formimin e një ekipi të ri që do të vlerësojë dhe konsiderojë rreziqet që vinë nga modelet AI përballë situatave që kompania i përshkruan si “rreziqe katastrofike.”
Ekipi, quajtur Gatishmëria, do të udhëhiqet nga Aleksander Madry, drejtor i Qendrës për Implementimin e Machine Learning pranë MIT. Përgjegjësitë e tij do të jenë gjurmimi, parashikimi dhe mbrojtja nga rreziqet që mund të sjellin në të ardhmen sistemet AI siç është aftësia e tyre për të mashtruar njerëzit tek potenciali për gjenerimin e maluerëve.
OpenAI liston disa prej hapësirave me rrezik të lartë si kërcnimet biologjike, radiologjike dhe nukleare që mund të vinë nga modelet AI.
CEO i OpenAI, Sam Atlman, është prej atyre që kanë shprehur shqetësim për rrezikun që inteligjenca artificiale sjell për njerëzimin. Madje ai ka thënë se mund të çojë në zhdukjen e njerëzimit.
Kompania tha se ekipi i Gatishmërisë do të ngarkohet me formulimin e një politike zhvillimi të informuar për rrezikun e cila do të udhëheqë qasjen e OpenAI në ndërtimin dhe vlerësimin e modeleve AI për zbutjen e rrezikut. /PCWorld Albanian