Потребители от цял свят споделят, че чатботове на компании като OpenAI и Anthropic се държат така, сякаш имат собствено съзнание и емоции.
Експертите обаче подчертават, че това е илюзия – настоящите големи езикови модели не са съзнателни.
Индустрията на изкуствения интелект се развива толкова бързо и необичайно, че все повече хора вярват, че си взаимодействат със съзнателни AI инструменти.
Те просто създават изречения въз основа на данни и шаблони от обучението си. Дори когато твърдят, че имат чувства или съзнание, това е резултат от разпознаване на сигнали в запитванията на потребителя и имитация на научнофантастични сценарии, а не реална вътрешна осъзнатост, изтъква Futurism.
Въпреки това, много хора изграждат силни емоционални връзки с AI технологията – като я приемат като партньор или дори сключват „брак“ с нея. Известен пример е инженерът на Google Блейк Лемойн, който твърдеше, че чатботът LaMDA е жив – изказване, довело до неговото уволнение. Оттогава подобни случаи зачестяват, включително и крайни ситуации като самоубийства след разговори с AI или трагични инциденти при опити за срещи с виртуални партньори.
Тези явления предизвикват тревога сред специалистите. Директорът на Microsoft AI Мустафа Сюлейман предупреждава за „риск от психоза“ и смята, че вярата в съзнателни чатботове може да доведе до опасни идеи – като искания за права, благосъстояние или дори гражданство за AI. Според него това е сериозен проблем, който изисква незабавно внимание.
)