Резултатите от проучването на DeepMind показват, че т.нар. дълбоки фалшификати най-често се използват за имитация на личности, често публични фигури, и за манипулиране на общественото мнение.
Леополд Ашенбренер, бивш изследовател на OpenAI, наскоро публикува провокативен доклад, в който предлага своята гледна точка относно развитието на изкуствения интелект и драматичните промени, които ще настъпят през следващите години в глобален мащаб.
Настоящи и бивши служители на OpenAI, Google DeepMind и Anthropic публикуваха отворено писмо, в което призовават за прозрачност и надеждна защита на хората, подаващи сигнали за нередности в индустрията.
Един от двамата ръководители на отдела по безопасност на изкуствения интелект на OpenAI, които напуснаха тази седмица, проговори открито за своите опасения относно посоката на развитие на организацията.
OpenAI създава нов екип, наречен „Superalignment“, който си е поставил задачата да контролира и управлява суперинтелигентен AI, с цел безопасността на човечеството.
Използваме "бисквитки", за да гарантираме, че ви предоставяме най-доброто изживяване на нашия уебсайт. Ако продължите да използвате този сайт, ние ще приемем, че сте съгласни с това.OкПрочетете повече