Google DeepMind прави голяма стъпка към бъдещето на роботите с изкуствен интелект - и този път те не просто разбират текст, а действат в реалния свят.
Видеото показа как Apollo комуникира с човек и подрежда букви върху масата по команда.„Вградихме концептуалното разбиране на Gemini 2.0 в роботиката“, коментира Канишка Рао, водещият изследовател на проекта.
Според DeepMind моделът може да управлява различни роботи в стотици сценарии, които не са били изрично включени в обучението му.„Когато роботът разбере общите концепции, той става значително по-гъвкав и полезен“, допълва Рао.
Четете повече ТУК.
Доскоро AI блестеше главно в текстовата комуникация, с чатботове като ChatGPT и Gemini 2.0, които променят начина, по който човекът взаимодейства с технологиите. DeepMind, обаче, има по-амбициозна цел - да изведе изкуствения интелект извън дигиталния свят и да му придаде физическа форма, пише WIRED.
Компанията представя Gemini Robotics - нова версия на своя генеративен модел, която комбинира език, визия и движение, за да управлява роботи с висока адаптивност. Във видео демонстрация DeepMind показва роботизирани ръце, които изпълняват команди в реално време - сгъват хартия, подават зеленчуци, поставят очила в калъф и извършват други фини манипулации, пише Profit.bg.
Най-важното тук е, че изкуственият интелект свързва визуализацията с възможни действия, като се адаптира към различен хардуер. Компанията представя и версия Gemini Robotics-ER (Embodied Reasoning) - модел, който разбира пространството и обектите около себе си, но без да има директен контрол върху движенията. Идеята е изследователи и инженери да го използват за създаването на свои собствени роботи. Един от най-интересните експерименти беше с Apollo - хуманоидния робот на Apptronik, който се управлява от новия модел.
)