)
Въпреки успеха на s1, разработката му повдига опасения в индустрията. Например, политиката на Google забранява обратно инженерство на техните модели за създаване на конкурентни услуги, каквото беше направено с s1. Това поставя етични и правни въпроси, особено по отношение на правата върху интелектуалната собственост и бъдещето на достъпността на ИИ модели.
Екип от изследователи в областта на изкуствения интелект от Станфордския университет и Университета на Вашингтон постигнаха революционен успех. А именно - успяха да разработят нов ИИ модел за разсъждение с отворен код (терминът се използва за модели, които имитират процесите на мислене и вземане на решения в контекста на AI).
Моделът s1 е бил обучен с малък набор от данни, състоящ се само от 1 000 подбрани въпроса и отговори, включително разсъжденията зад всеки отговор от Gemini 2.0 на Google. Въпреки този малък набор от данни, постиженията на модела в AI бенчмаркове бяха впечатляващи. Всъщност, той е постигнал тези резултати след само 30 минути обучение на 16 Nvidia H100 GPU, на цена около 20 долара. Това подчертава идеята, че силните постижения в ИИ не изискват непременно огромни количества данни или скъпоструващи ресурси.
Изследователите са добавили и интелигентен компонент, който е успял да подобри способностите на модела да "разсъждава". Чрез въвеждане на термина "изчакай" в процеса на s1, моделът моделът е успял да спира "разсъжденията" си, като по този начин да си даде време да достигне до по-точни отговори на зададените му въпроси.
Изследователският екип е започнал разработката на s1, като е използвал базисен модел и го е усъвършенствал чрез процес, наречен дистилация. Дестилацията (или дистилацията ) на знания в контекста на обучението на модели с изкуствен интелект е процес, при който по-малък и по-ефективен модел се обучава да имитира поведението и резултатите на по-голям и по-комплексен модел. Това е метод, при който се прехвърлят знанията от един по-мощен, но по-скъп за обучение модел към по-малък, който изисква значително по-малко изчислителни ресурси и може да бъде използван по-ефективно в практиката.
Моделът s1 показва, че е способен да работи на ниво, сравнимо с установени модели за разсъждения като o1 на OpenAI и R1 на DeepSeek. Неговите способности бяха тествани в ключови оценки, със задачи като математика и програмиране, където предостави обещаващи резултати. Този модел с отворен код е наличен в GitHub, където са публикувани и свързаните с него код за обучение и набор от данни, позволявайки на всеки да го достъпи и експериментира с него.
Наблюдава се нарастващ интерес към начина, по който по-малки субекти или индивидуални изследователи могат да допринесат за областта без необходимост от достъп до големи бюджети или корпоративна подкрепа. Появата на икономически ефективни ИИ модели като s1 може да доведе до по-демократичен достъп до мощни модели за разсъждения, което ще позволи иновации по целия свят.
Новият модел е наречен s1, пише CEO Today.
Обикновено големите ИИ компании и изследователски екипи разполагат с огромни бюджети, които могат да се инвестират в облачни ресурси и инфраструктура за обучение на модели. Но тук екипът е успял да създаде високопроизводителен ИИ модел с минимален бюджет, което е голямо постижение и показва, че е възможно да се постигнат високи резултати с по-скромни ресурси. Това може да отвори възможности за много малки екипи или независими изследователи да участват в ИИ изследвания и разработки, без да имат огромен бюджет.
Разработчиците на ИИ като OpenAI и DeepSeek изразиха опасения относно дестилацията на техните модели, като заявиха, че конкуренти могат да се възползват от тяхната проприетарна информация.
Успехът на s1 подчертава потенциала за създаване на високо представящи се ИИ модели с минимални финансови инвестиции. Въпреки това, важно е да се отбележи, че техниките за дестилация, въпреки че са ефективни, не водят непременно до създаването на революционни нови модели.
Успехът на модела s1 поставя множество въпроси относно комодифицирането на ИИ моделите. Със способността, която изследователи са показали, а именно да успеят да репликират високо представящи се модели с относително малки инвестиции, възникват и въпросите, свързани с бъдещето на мащабното развитие на ИИ и конкурентната среда за големите лаборатории по ИИ.
Чрез прилагане на метода на дестилация, изследователите са успели да създадат модел, който демонстрира силни способности за разсъждения, използвайки относително малък набор от данни. Дестилацията обикновено е по-евтина от други техники, като усилено обучение, което се използва от много други разработчици на ИИ като DeepSeek за създаване на модели, подобни на o1 на OpenAI.
Meta, Google и Microsoft са сред компаниите, които инвестират милиарди долари в инфраструктура за ИИ и следващо поколение ИИ модели. Докато дестилацията се оказа икономически ефективна стратегия, големите инвестиции ще останат решаващи за напредъка на ИИ, особено в области като мащабируемостта на моделите и създаването на напълно нови форми на разсъждения.
Ако малък изследователски екип може да постигне такива резултати с минимални ресурси, какви последици ще има това за бъдещето на ИИ изследванията и развитието на технолгоията?
В обобщение, това означава, че може да се постигне значителен напредък в ИИ изследванията, дори при ограничени финансови ресурси, което е важно за демократизацията на технологията и прави напредъка в сферата на ИИ по-достъпен за повече хора.
В този случай, s1 е бил дестилиран от един от моделите за разсъждения на Google - Gemini 2.0 Flash Thinking Experimental.
Изключителното в случая е, че той е обучен за по-малко от 50 долара под формата на кредити за облачни изчисления. Разработката на s1 предоставя алтернатива на скъпите ИИ модели като o1 на OpenAI, например.
С нарастващото използване на достъпни методи за дестилация, се очаква тези дебати да продължат да се развиват.
Последвайте канала на