В света на изкуствения интелект (AI), понятието “суперинтелигентност” събужда възхищение, страх и множество въпроси. OpenAI, организацията на челно място в областта на AI, обяви създаването на нов екип, наречен ‘Superalignment’, който си е поставил амбициозната задача да ориентира и контролира развитието на супер-интелигентни AI системи. Стремежът е те да бъдат в синхрон с човешките цели и да работят в полза на обществото, вместо да представляват заплаха за него.
Суперинтелигентността ще бъде най-трансформативната технология, създавана някога, и би могла да ни помогне в решаването на множество световни проблеми. Въпреки това, тя носи и изключително високи рискове, които включват потенциалното ослабване и дори изчезване на човечеството
– съобщават OpenAI в блог пост.
Нуждаем се от нови технически решения, за да насочваме и контролираме AI системи, които са значително по-интелигентни от нас. Новият ни екип “Superalignment” има за цел да реши този проблем в рамките на 4 години, като отделяме 20% от моментната ни изчислителна мощ за решаването на този проблем.
We need new technical breakthroughs to steer and control AI systems much smarter than us.
— OpenAI (@OpenAI) July 5, 2023
Our new Superalignment team aims to solve this problem within 4 years, and we’re dedicating 20% of the compute we've secured to date towards this problem.
Join us! https://t.co/cfJMctmFNj
Макар суперинтелигентността да изглежда далечна в момента, смятаме, че тя може да се появи още през това десетилетие. В момента нямаме решение за управлението и контрола на потенциално суперинтелигентен AI
– споделят от OpenAI.
Екипа “Superalignment”
Екипът “Superalignment”, воден от Иля Сутскевер и Ян Лайке, ще се фокусира върху научни и технически предизвикателства, свързани с управлението и контрола на AI системи, които са значително по-интелигентни от нас. OpenAI е ангажирана да набере нови изследователи, които да се присъединят към това амбициозно начинание.
Сегашните ни методи за “alignment” на изкуствения интелект (AI) се базират на способността на човека да проверява и управлява AI системите. Но възможността ни да продължаваме с това ще бъде ограничена, когато AI системите станат значително по-интелигентни от нас. Сегашните техники за контрол над супер-интелигентни системи, не са достъчни. Ние се нуждаем от нови научни открития.
– предупреждават, Иля Сутскевер и Ян Лайке.
Терминът “alignment” в контекста на изкуствения интелект (AI) се отнася до разработването на AI системи, които следват човешките намерения и цели и действат в полза на хората, вместо да представляват заплаха за тях.
I'm super excited to be co-leading the team together with @ilyasut.
— Jan Leike (@janleike) July 5, 2023
Most of our previous alignment team has joined the new superalignment team, and we're welcoming many new people from OpenAI and externally.
I feel very lucky to get to work with so many super talented people!
Кои са Иля Суцкевер и Ян Лайке? Архитектите на ChatGPT
Иля Суцкевер е роден в Русия, но в ранните си години живее в Израел, и след това в Канада. Той е известен със своя значителен принос в областта на дълбокото обучение. Суцкевер е един от съоснователите на OpenAI и заема поста Главен научен работник. Той завършва своя докторатска степен по компютърни науки в Университета на Торонто, където работи под менторството на Джефри Хинтън, “бащата на изкуствения интелект“. Суцкевер, заедно с Алекс Кризевски и Хинтън, стоят зад създаването на AlexNet – конволюционна невронна мрежа.
Ян Лайке е научен изследовател в OpenAI, където води отдел „Alignment“ и се занимава с проблема на изкуствения интелект и човешките ценности. Преди да се присъедини към OpenAI, Лайке e работил като научен изследовател в DeepMind и научен сътрудник в Института за бъдеще на човечеството, където изследва възможностите за управление на глобалния риск от изкуствен интелект.
Бъдещи цели и предизвикатества пред OpenAI
Сутскевер и неговият екип продължават досегашните си излседвания върху подобряването на безопасността на текущите GPT модели и намаляване рискове като злоупотреба, икономическо разстройство, дезинформация, предразсъдъци и дискриминация, зависимост и прекомерна употреба.
Новият ни екип ще се фокусира върху предизвикателствата, свързани с проблемите при “alignment” на супер-интелигентни AI системи. Нашата цел е да създадем безопасен и отговорен AI, който да работи за благото на хората и обществото
– споделя Сутскевер.
С тази амбициозна цел, OpenAI призовава всички изследователи в машинното обучение, които имат необходимите умения и са загрижени за бъдещето на изкуствения интелект, да се присъединят към усилията им за създаване на безопасен AI.
Заедно можем да постигнем прогрес и да решим този важен проблем. Присъединете се към нас и бъдете част от това вълнуващо начинание за бъдещето на изкуствения интелект
– ОpenAI.
Целта на AIBulgaria.com е да предоставя актуална и стойностна информация от света на изкуствения интелект (AI). Последвайте ни в социалните мрежи – Facebook, Instagram, Twitter и LinkedIn. Също така, може да се присъедините към нашия Discord сървър!
Споделете: