1.7 C
Pristina
spot_img

OpenAI dhe Google tani e tutje duhet të njoftojnë qeverinë për modelet e AI

Date:

Share:

OpenAI, Google dhe kompanitë e tjera të AI së shpejti do të duhet të informojnë qeverinë për zhvillimin e modeleve të fondacionit, falë Aktit të Prodhimit të Mbrojtjes.  Sekretarja Amerikane e Tregtisë, Gina Raimondo, ndau detaje të reja në lidhje me këtë kërkesë të afërt në një ngjarje të mbajtur nga Instituti Hoover i Universitetit Stanford të premten e kaluar.

“Ne po përdorim Aktin e Prodhimit të Mbrojtjes… për të bërë një anketë që kërkon që kompanitë të ndajnë me ne sa herë që trajnojnë një model të ri të madh gjuhësor dhe të ndajnë me ne rezultatet – të dhënat e sigurisë – në mënyrë që ne t’i shqyrtojmë ato.” tha Raimondo.

Rregullat e reja janë pjesë e urdhrit ekzekutiv gjithëpërfshirës të AI të Presidentit Biden të lançuar tetorin e kaluar. Midis grupit të gjerë të mandateve, urdhri kërkon që kompanitë që zhvillojnë çdo model themeli “që paraqet një rrezik serioz për sigurinë kombëtare, sigurinë ekonomike kombëtare ose shëndetin dhe sigurinë publike kombëtare”, të njoftojnë qeverinë federale dhe të ndajnë rezultatet e testimit të saj të sigurisë. . Modelet e fondacionit janë modele si GPT-4 i OpenAI dhe Gemini i Google që fuqizojnë chatbots gjenerues të AI. Megjithatë, GPT-4 ka të ngjarë të jetë nën pragun e fuqisë kompjuterike që kërkon mbikëqyrje nga qeveria.

Modelet e ardhshme të themeleve, ato që kanë fuqi llogaritëse të paprecedentë, janë shqetësimi kryesor për shkak të rrezikut të tyre masiv të mundshëm të sigurisë kombëtare. Kjo është arsyeja pse ky mandat bie në territorin e Aktit të Prodhimit të Mbrojtjes, i cili u thirr për herë të fundit në vitin 2021 nga Presidenti Biden për të rritur prodhimin e pajisjeve dhe furnizimeve mbrojtëse të lidhura me pandeminë.

Në këtë ngjarje, Raimondo trajtoi gjithashtu një aspekt tjetër të urdhrit ekzekutiv, i cili do t’u kërkonte ofruesve amerikanë të kompjuterit cloud si Amazon, Google dhe Microsoft të zbulojnë përdorimin e huaj të shërbimeve të tyre.

mashable

Abonohuni

━ artikuj të ngjashëm

spot_img