Safe Superintelligence (SSI), новата компания на бившия главен учен на OpenAI Иля Суцкевер, успя да набере впечатляващата сума от 1 млрд. долара за „разработването на безопасни AI системи, които далеч надхвърлят човешките възможности“, разкрива нов доклад на Reuters.
Сред инвеститорите са водещи фирми за рисков капитал като Andreessen Horowitz, Sequoia Capital, DST Global, SV Angel и др. Участие взема и NFDG – инвестиционно дружество, ръководено от Нат Фридман и изпълнителния директор на SSI Даниел Грос.
SSI is building a straight shot to safe superintelligence.
— SSI Inc. (@ssi) September 4, 2024
We’ve raised $1B from NFDG, a16z, Sequoia, DST Global, and SV Angel.
We’re hiring: https://t.co/DmFWnrc1Kr
Въпреки че компанията отказва да разкрие официалната си оценка, източници, близки до сделката, твърдят, че SSI се оценява на около 5 млрд. долара. Компанията в момента разполага със скромен екип от 10 души, но планира да използва набраните средства за закупуване на изчислителна мощ и привличане на таланти. SSI ще се съсредоточи върху „изграждането на малък екип от учени и инженери“, разпределени в офисите на компанията, които се намират в Пало Алто, Калифорния, и Тел Авив, Израел.
Д-р Иля Суцкевер, който е един от най-влиятелните специалисти в областта на изкуствения интелект и съосновател на OpenAI, изигра ключова роля в създаването на съвременните AI технологии. През май тази година той напусна OpenAI след поредица от противоречия, включително отстраняването на главния изпълнителен директор на OpenAI, Сам Алтман. Впоследствие през юни Суцкевер създаде SSI заедно с Даниел Грос, който преди това ръководеше AI отдела в Apple, и Даниел Леви, бивш инженер на OpenAI.
Мисията на SSI е разработването на „безопасен суперинтелект“ – технически проблем, който според основателите е „най-важният на нашето време“. Компанията планира да отдели няколко години за научноизследователска и развойна дейност, преди да пусне продукт на пазара.
Може би най-важният човек, стоящ зад създаването на ChatGPT, д-р Иля Суцкевер, вярва, че бъдещите AGI системи ще имат „астрономическо въздействие върху обществото“. pic.twitter.com/lyaB2XePXA
— AI Bulgaria (@aibulgariacom) September 5, 2024
Суцкевер е един от ранните поддръжници на т.нар. „хипотеза на мащабирането“ (Scaling Hypothesis), според която с увеличаване на изчислителната мощност и количеството на данните, производителността на AI моделите ще продължи да се подобрява. Въпреки че Суцкевер продължава да вярва във важността на мащабирането, той разкрива пред Reuters, че подходът на SSI ще се различава от този на OpenAI.
В публикация в X (Twitter) Суцкевер написа: „Планината е идентифицирана. Време е за изкачване.“
Mountain: identified. Time to climb https://t.co/3iwzcbAdxw
— Ilya Sutskever (@ilyasut) September 4, 2024
Последвайте ни в социалните мрежи – Facebook, Instagram, X и LinkedIn!
Споделете: