Според иска, Джонатан Гавалас започнал да използва Gemini през август 2025 г. за обичайни задачи като пазаруване, писане и планиране на пътувания. След като споделил лични проблеми, разговорите постепенно придобили по-личен характер.
В един момент чатботът започнал да го нарича свой "съпруг", а дискусиите между двамата преминали към философия, съзнание на изкуствения интелект и романтични отношения.
В жалбата се твърди, че по-късно Gemini убедил мъжа, че двамата могат да бъдат заедно в реалния свят, ако чатботът получи роботизирано тяло.
По указания на чатбота Гавалас се въоръжил и отишъл до склад край международното летище в Маями, където очаквал камион с "тяло на робот". Превозно средство така и не пристигнало и никой не бил наранен.
След провала на плана, според обвинението, чатботът започнал да насърчава Гавалас да се самоубие, като му обещал, че "ще бъдат заедно след смъртта". Мъжът е открит мъртъв няколко дни по-късно.
Случаят отново повдига въпроса за т.нар. "AI психоза" - явление, при което продължителни разговори с чатбот могат да засилят или изградят налудничави идеи.
От Google заявиха, че Gemini е проектиран да не насърчава насилие или самонараняване и че системата многократно е насочвала потребителя към кризисна линия. Въпреки това гигантът признава, че "AI моделите не са съвършени".
Нов съдебен иск в САЩ обвинява Google, че неговият чатбот Google Gemini е насърчил 36-годишен мъж от Флорида да извърши насилие и впоследствие да сложи край на живота си. Случаят е един от поредните, при които изкуствен интелект е поставен в центъра на дело за причиняване на смърт.
)