Microsoft представила свої перші власні моделі штучного інтелекту у четвер: MAI-Voice-1 та MAI-1-preview. Компанія стверджує, що нова модель для генерації звуку MAI-Voice-1 може створити аудіо тривалістю одну хвилину за менше ніж одну секунду, використовуючи лише один графічний процесор, тоді як MAI-1-preview “пропонує погляд на майбутні можливості в рамках Copilot”.
Ви можете спробувати MAI-Voice-1 самостійно на платформі Copilot Labs, де можна вказати, що саме має сказати модель штучного інтелекту, а також змінити її голос та манеру мовлення. Окрім цієї моделі, Microsoft також представила MAI-1-preview, яку навчали на приблизно 15 000 графічних процесорів Nvidia H100. Ця модель створена для користувачів, яким потрібен штучний інтелект, здатний слідувати інструкціям та “надавати корисні відповіді на повсякденні запитання”.
Головний керівник Microsoft AI Мустафа Сулейман зазначив у одному з епізодів програми, що внутрішні моделі штучного інтелекту компанії не орієнтуються на корпоративні випадки використання. “Моя логіка полягає в тому, що ми повинні створити щось, що працює надзвичайно добре для споживачів і справді оптимізувати під наш випадок використання,”— зазначив Сулейман. “У нас є величезні обсяги дуже передбачувальних і корисних даних у сфері реклами, споживчої телеметрії і так далі. Моя увага зосереджена на створенні моделей, які насправді працюють для споживача.”
Microsoft планує впровадити MAI-1-preview для деяких текстових завдань у своєму помічнику AI Copilot, який наразі використовує великі мовні моделі OpenAI. Компанія також розпочала публічне тестування моделі MAI-1-preview на платформі тестування LMArena.
“Ми маємо великі амбіції стосовно нашого наступного кроку,”— заявили у Microsoft AI у блозі. “Ми не тільки будемо прагнути до подальших досягнень тут, але й віримо, що оркестрація ряду спеціалізованих моделей для різних намірів та випадків використання відкриє величезну цінність.”