По повод една година от стартирането на Copilot, Microsoft обяви интеграцията на най-новия модел на OpenAI, GPT-4 Turbo, в AI асистента. Това обещава значително да улесни потребителите в справянето с по-дълги и по-сложни задачи.
GPT-4 Turbo, който беше обявен на конференцията DevDay на OpenAI, има контекстуален прозорец от 128 000 токена, което означава, че може да „вижда“ и обработва по-голям обем данни. „Токен” в този контекст означава най-малката единица информация, която моделът може да обработва, като например дума или част от дума. Предишното поколение позволяваше обработка на текстови данни до 50 страници, докато GPT-4 Turbo обработва до 300 страници. В момента интеграцията се тества от избрани потребители, като по-широкото ѝ разпространение се очаква през следващите седмици.
Паралелно с GPT-4 Turbo, в Copilot ще бъде интегриран и DALL-E 3 – генераторът на изображения на OpenAI.
Microsoft също така стартира „Deep Search“ – нова експериментална функция за своята търсачка Bing, която ще използва GPT-4, за да предоставя по-изчерпателни и релевантни резултати при сложни заявки за търсене от потребителите.
Според официалното изявление на Microsoft, „Deep Search“ цели да адресира често срещан проблем в процеса на търсене – неспособността на традиционните търсачки адекватно да интерпретират специфични и нюансирани потребителски въпроси. В много случаи, те се оказват неефективни в разбирането на сложните заявки, което води до предоставянето на непълни или нерелевантни отговори. Deep Search обещава да преодолее тези ограничения, като използва GPT-4 за по-дълбок и прецизен анализ на потребителските заявки.
![](https://b3257911.smushcdn.com/3257911/wp-content/uploads/2023/12/Deep-Search.gif?lossy=2&strip=1&webp=1)
Важно е да се отбележи, че търсенето с „Deep Search“ ще отнема до 30 секунди в сравнение с мигновенните отговори от традиционната търсачка на Bing. Поради тази причина потребителите могат да избират дали да го използват или не. Microsoft отбелязва, че функцията не е заместител на съществуващото уеб търсене в Bing, а е подобрение, което позволява по-задълбочено проучване в мрежата.
Компанията също така планира да въведе нова функция, наречена „Multi-Modal with Search Grounding„, в Bing. Тази функция, базирана на мултимодалните възможности на GPT-4, позволява на изкуствения интелект да анализира както текст, така и изображения. Например, потребителите могат да качат снимка да задават въпроси по нея.
![](https://b3257911.smushcdn.com/3257911/wp-content/uploads/2023/12/Multi-Modal-with-Search-Grounding.gif?lossy=2&strip=1&webp=1)
Подобно на ChatGPT, Microsoft Copilot също ще получи „Code Interpreter„. Функцията ще даде възможност на потребителите да изпълняват сложни задачи като анализ на данни, визуализация, математика и, разбира се, кодиране. В момента Code Interpreter е в бета-версия, като широкото му разпространение се очаква в близко бъдеще.
![](https://b3257911.smushcdn.com/3257911/wp-content/uploads/2023/12/Code-Interpreter.gif?lossy=2&strip=1&webp=1)
И на последно място, Copilot в Edge, подобно на Google Bard, вече може да обобщава видеоклипове.
![](https://b3257911.smushcdn.com/3257911/wp-content/uploads/2023/12/video-understanding-1024x519.jpg?lossy=2&strip=1&webp=1)
Последвайте ни в социалните мрежи – Facebook, Instagram, X и LinkedIn!
Можете също така да ни намерите и последвате и в Google News Showcase.
Споделете: