OpenAI formon një ekip për të studiuar rreziqet katastrofike që vinë nga inteligjenca artificiale

OpenAI ditën e Enjte njoftoi formimin e një ekipi të ri që do të vlerësojë dhe konsiderojë rreziqet që vinë nga modelet AI përballë situatave që kompania i përshkruan si “rreziqe katastrofike.”

Ekipi, quajtur Gatishmëria, do të udhëhiqet nga Aleksander Madry, drejtor i Qendrës për Implementimin e Machine Learning pranë MIT. Përgjegjësitë e tij do të jenë gjurmimi, parashikimi dhe mbrojtja nga rreziqet që mund të sjellin në të ardhmen sistemet AI siç është aftësia e tyre për të mashtruar njerëzit tek potenciali për gjenerimin e maluerëve.

OpenAI liston disa prej hapësirave me rrezik të lartë si kërcnimet biologjike, radiologjike dhe nukleare që mund të vinë nga modelet AI.

CEO i OpenAI, Sam Atlman, është prej atyre që kanë shprehur shqetësim për rrezikun që inteligjenca artificiale sjell për njerëzimin. Madje ai ka thënë se mund të çojë në zhdukjen e njerëzimit.

Kompania tha se ekipi i Gatishmërisë do të ngarkohet me formulimin e një politike zhvillimi të informuar për rrezikun e cila do të udhëheqë qasjen e OpenAI në ndërtimin dhe vlerësimin e modeleve AI për zbutjen e rrezikut. /PCWorld Albanian

BURIMI: PCWORLD.AL


Notice: Trying to get property 'ID' of non-object in /home/runcloud/webapps/gazetamk/wp-content/themes/fox/inc/single.php on line 744

Notice: Trying to get property 'user_nicename' of non-object in /home/runcloud/webapps/gazetamk/wp-content/themes/fox/inc/single.php on line 744
Story i mëparshëm

Samiti i BE: Scholz thekson mbështetjen për Izraelin

Story i radhës

Meksikë, 27 të vdekur nga uragani Otis

Të fundit nga