
Apple розкрила подробиці про свою нову модель штучного інтелекту MM1
в iCases BlogЯкий легко інтегрує як текстову, так і візуальну інформацію.
Дослідники Apple розробили новий метод навчання великих мовних моделей (LLM).
Результати досліджень компанії, детально викладені в дослідницькому документі під назвою "MM1: Методи, аналіз і висновки з мультимодального попереднього навчання LLM", демонструють розумніший і гнучкіший штучний інтелект. Він являє собою новий підхід до створення систем. Використовуючи різні набори даних, включно з парами підписів до зображень, текстовими документами, вкладеними в зображення, і текстовими даними, Apple стверджує, що модель MM1 встановлює нову планку в здатності штучного інтелекту виконувати такі завдання, як створення підписів до зображень, візуальні відповіді на запитання і виведення природної мови з високою точністю. Вона стверджує.
Мета дослідження Apple - об'єднати різні типи навчальних даних і архітектури моделей, щоб дати змогу штучному інтелекту розуміти і генерувати мову на основі поєднання візуальних і лінгвістичних підказок. Ця здатність необхідна для завдань, що вимагають тонкого розуміння світу, таких як інтерпретація складних зображень або відповіді на запитання, пов'язані з візуальними елементами.
У статті також підкреслюється видатна здатність моделі MM1 до контекстного навчання, особливо в найбільшій конфігурації з 30 мільярдами параметрів моделі. Ця версія демонструє дивовижну здатність робити багатоступінчасті умовиводи за кількома зображеннями, використовуючи кілька знімків "поїзда думки". Ця технологія дає змогу ШІ вирішувати складні завдання на основі мінімальної кількості прикладів.
Дослідження є частиною ширшої ініціативи Apple з розширення можливостей ШІ в умовах зростаючої конкуренції. Раніше сьогодні кореспондент Bloomberg Марк Гурман повідомив, що Apple веде переговори з Google щодо ліцензування генеративної багатомовної моделі Gemini для нових функцій, які будуть включені в iPhone у складі iOS 18.