Бившият изследовател в Open AI Даниел Кокотайло: 70% е шансът AGI да доведе до края на човешката цивилизация

  • 05 юни 2024 13:51

  • 983
  • 0
Бившият изследовател в Open AI Даниел Кокотайло: 70% е шансът AGI да доведе до края на човешката цивилизация
© Freepik AI

Бивши и настоящи служители на OpenAI публикуваха отворено писмо, в което твърдят, че им се забранява да повдигат въпроси, свързани с безопасността на изкуственият интелект, предава Futurism.

Един от подписалите се направи още по-ужасяваща прогноза: шансовете AI да унищожи или катастрофално да навреди на човечеството, са значителни.

В интервю за The New York Times бившият изследовател на OpenAI Даниел Кокотайло обвини компанията, че пренебрегва монументалните рискове, породени от изкуствения общ интелект (AGI), защото хората, които вземат решения, са толкова очаровани от неговите възможности.

"OpenAI наистина се вълнува от изграждането на AGI", каза Кокотайло, "и те безразсъдно се надпреварват да бъдат първи там."

Кой ще е новият господар на Земята след човека? Отговаря изкуственият интелект Chat GPT

Според Кокотайло има шанс от 70% AGI да доведе до края на човешката цивилизация.

31-годишният Кокотайло каза пред NYT, че след като се присъединил към OpenAI през 2022 г. ибил помолен да прогнозира напредъка на технологията. Той се убедил, че индустрията ще постигне AGI до 2027 г., но и че има голяма вероятност, че това да доведе до катастрофа.

Секс партита и LSD: какво се случва зад кулисите на OpenAI?

Както е отбелязано в отвореното писмо, Кокотайло и неговите съмишленици - включително бивши и настоящи служители в Google DeepMind и Anthropic, както и Джефри Хинтън, така нареченият "кръстник на AI" - твърдят, че обществото трябва да е наясно с рисковете от изкуствения интелект.

Кръстникът на ИИ: Напълно възможно е човечеството да е само преходен етап в еволюцията на интелигентността

Кокотайло стана толкова убеден, че изкуственият интелект ще се превърне във фундаментална заплаха, че в крайна сметка лично призова главния изпълнителен директор на OpenAI Сам Алтман да отдели повече време за внедряване на бариери, за да управлява технологията, вместо да продължи да я прави по-умна.

Изглежда Алтман изразил съгласие на думи, но на практика не искал да забави темповете на развитие за сметка на безопасността.

Неволна грешка: Сам Алтман сравни ChatGPT 4o с холивудската анти-утопична лента Her

Уморен, Кокотайло напусна OpenAI през април, като каза на екипа си в имейл, че е "загубил увереност, че OpenAI ще се държи отговорно", тъй като продължава да се опитва да изгради AI почти на човешко ниво.

"Светът не е готов и ние не сме готови", пише той в имейла си, който беше споделен с NYT. "И съм загрижен, че бързаме напред независимо от това и рационализираме действията си."

Отговорът на OpenAI не закъсня, макар че според специалистите на практика не казва нищо. "Гордеем се с нашия опит в предоставянето на най-способните и най-безопасни AI системи и вярваме в нашия научен подход за справяне с риска", се казва в изявление на компанията след публикуването на тази статия. "Съгласни сме, че строгият дебат е от решаващо значение предвид значението на тази технология и ще продължим да се ангажираме с правителствата, гражданското общество и други общности по света."

Алтман за секретния Q* проект: Имаме тайни, за които не сме готови да говорим

"Това е и причината, поради която имаме възможности за служителите да изразят своите опасения, включително анонимна гореща линия за почтеност и Комитет за безопасност и сигурност, ръководен от членове на нашия борд и ръководители по безопасността от компанията", продължава изявлението.

Последвайте канала на

Теодора Павлова
983 0

Свързани новини

Коментари 0

Добави коментар

Добави коментар

Водещи новини