Бивш изследовател на OpenAI споделя, че е напуснал компанията, след като е разбрал, че тя оставя безопасността на заден план, за да преследва бърза печалба. Бившият член на екипа на Superalignment Уилям Сондърс направи разкритието в подкаста на Алекс Кантровиц.
"По време на трите ми години в OpenAI понякога си задавах въпрос. Дали пътят, по който вървеше OpenAI, приличаше повече на програмата Аполо или повече на Титаник?"
Сондърс твърди, че Титаник може да е бил наричан "непотопяем, но междувременно не е имало достатъчно спасителни лодки за всички и така, когато бедствието все пак се случва, броя на загиналите е непропорционално висок".
Бившият служител обвини OpenAI, че "гигантът дава приоритет на извеждането на по-нови, по-лъскави продукти" точно както е правила преди около век вече несъществуващата британска корабна компания White Star Line.
Неговите коментари подчертават нарастващата загриженост около разработката на всеобщ изкуствен интелект (AGI) - нещо, което в момента остава изцяло теоретично, но е източник на голям интерес за OpenAI и Сам Алтман.
Ангажиментът на OpenAI към безопасността също е нестабилен, що се отнася до непрекъснато променящата се корпоративна структура. По-рано тази година главният изпълнителен директор на OpenAI Сам Олтман обяви, че разпуска екипа на Superalignment, ориентиран към безопасността - част от който някога е бил Сондърс, пише dir.bg.
Алтман твърди от самото начало, че иска да реализира AGI по безопасен начин. Спроед критиците обаче компанията играе бързо и свободно с правилата и дава приоритет на пускането на нови чатботове. Освен това тя е набрала сериозни инвестиции и има партньорства за милиарди долари с технологични гиганти като Microsoft.
"Не е възможно да се разработи AGI или каквато и да е нова технология с нулев риск", добавя Сондърс в имейл до Business Insider. Той посочва, че програмата Аполо също е имала пропуски в безопасността.
"Това, което бих искал да видя, е компанията да предприеме всички възможни разумни стъпки, за да предотврати тези рискове."