Бившият изследовател на OpenAI Уилям Сондърс приравни дейността на компанията с потъването на кораба "Титаник"

  • 15 юли 2024 12:59

  • 2165
  • 0
Бившият изследовател на OpenAI Уилям Сондърс приравни дейността на компанията с потъването на кораба "Титаник"
© Bing Image Creator

Бивш изследовател на OpenAI споделя, че е напуснал компанията, след като е разбрал, че тя оставя безопасността на заден план, за да преследва бърза печалба. Бившият член на екипа на Superalignment Уилям Сондърс направи разкритието в подкаста на Алекс Кантровиц.

"По време на трите ми години в OpenAI понякога си задавах въпрос. Дали пътят, по който вървеше OpenAI, приличаше повече на програмата Аполо или повече на Титаник?"

Сондърс твърди, че Титаник може да е бил наричан "непотопяем, но междувременно не е имало достатъчно спасителни лодки за всички и така, когато бедствието все пак се случва, броя на загиналите е непропорционално висок".

Бившият служител обвини OpenAI, че "гигантът дава приоритет на извеждането на по-нови, по-лъскави продукти" точно както е правила преди около век вече несъществуващата британска корабна компания White Star Line.

Неговите коментари подчертават нарастващата загриженост около разработката на всеобщ изкуствен интелект (AGI) - нещо, което в момента остава изцяло теоретично, но е източник на голям интерес за OpenAI и Сам Алтман.

Компютърен учен е ужасен от плана на Зукърбърг: Мисълта за пускането на AGI с отворен код е наистина много страшна

Ангажиментът на OpenAI към безопасността също е нестабилен, що се отнася до непрекъснато променящата се корпоративна структура. По-рано тази година главният изпълнителен директор на OpenAI Сам Олтман обяви, че разпуска екипа на Superalignment, ориентиран към безопасността - част от който някога е бил Сондърс, пише dir.bg.

Алтман твърди от самото начало, че иска да реализира AGI по безопасен начин. Спроед критиците обаче компанията играе бързо и свободно с правилата и дава приоритет на пускането на нови чатботове. Освен това тя е набрала сериозни инвестиции и има партньорства за милиарди долари с технологични гиганти като Microsoft.

Секс партита и LSD: какво се случва зад кулисите на OpenAI?

"Не е възможно да се разработи AGI или каквато и да е нова технология с нулев риск", добавя Сондърс в имейл до Business Insider. Той посочва, че програмата Аполо също е имала пропуски в безопасността.

"Това, което бих искал да видя, е компанията да предприеме всички възможни разумни стъпки, за да предотврати тези рискове."

Последвайте канала на

Теодора Павлова
2165 0

Свързани новини

Коментари 0

Добави коментар

Добави коментар

Водещи новини