Перед тем как генеральный директор OpenAI Сэм Альтман был уволен, несколько штатных исследователей написали письмо совету директоров компании, в котором предупредили об открытии мощного искусственного интеллекта, который, по их мнению, может угрожать человечеству, сообщили Reuters два человека, знакомых с ситуацией. В дальнейшем гендиректора восстановили в должности под давлением инвесторов и он вернулся после 4-х дней "изгнания".
По словам двух источников, письмо и алгоритм искусственного интеллекта, о которых ранее не сообщалось, стали ключевыми событиями, предшествовавшими отстранению Альтмана от должности, ставшей символом генеративного искусственного интеллекта. До его триумфального возвращения в конце вторника более 700 сотрудников пригрозили уволиться и присоединиться к компании Microsoft (MSFT.O) в знак солидарности со своим уволенным руководителем.
Источники назвали это письмо одним из факторов в длинном списке претензий совета директоров, приведших к увольнению Альтмана, среди которых были опасения по поводу коммерциализации достижений до понимания последствий. Reuters не удалось ознакомиться с копией письма. Сотрудники, написавшие письмо, не ответили на просьбы о комментарии.
По словам одного из собеседников, после того как с ним связалось агентство Reuters, компания OpenAI, отказавшаяся от комментариев, в своем внутреннем сообщении сотрудникам признала наличие проекта под названием Q* и письма в совет директоров до событий, произошедших в выходные. Представитель OpenAI сообщил, что в сообщении, отправленном многолетним руководителем компании Мирой Мурати, сотрудники были предупреждены о некоторых публикациях в СМИ, не комментируя их достоверность.
Исследователи рассматривают высшую математику как рубеж развития генеративного ИИ. В настоящее время генеративный ИИ хорошо справляется с написанием текста и переводом языка, статистически предсказывая следующее слово, а ответы на один и тот же вопрос могут сильно различаться. Но покорение способности к математике, где существует только один правильный ответ, предполагает, что ИИ будет обладать более широкими возможностями рассуждения, напоминающими человеческий интеллект. Это может быть использовано, например, для новых научных исследований, считают исследователи ИИ.
В отличие от калькулятора, который может решать ограниченное число операций, ИИ способен обобщать, учиться и понимать.
По словам источников, в своем письме в совет исследователи отмечают как возможности ИИ, так и его потенциальную опасность, не уточняя, какие именно опасения были высказаны в письме. Среди ученых-компьютерщиков давно ведутся дискуссии об опасности, которую представляют собой высокоинтеллектуальные машины, например, могут ли они решить, что уничтожение человечества отвечает их интересам.
Исследователи также отмечали работу группы "AI scientist", существование которой подтвердили несколько источников. По словам одного из собеседников, эта группа, образованная путем объединения ранее созданных групп "Code Gen" и "Math Gen", занималась изучением возможностей оптимизации существующих моделей ИИ для улучшения их рассуждений и, в конечном счете, выполнения научной работы.
Альтман возглавил работу по превращению ChatGPT в одно из самых быстрорастущих программных приложений в истории и привлек инвестиции - и вычислительные ресурсы - необходимые Microsoft для приближения к AGI.
Помимо того, что в этом месяце на демонстрации было представлено множество новых инструментов, на прошлой неделе Альтман на саммите мировых лидеров в Сан-Франциско заявил, что, по его мнению, не за горами значительные успехи.
"За всю историю OpenAI мне уже четыре раза (последний раз - буквально в последние пару недель) доводилось присутствовать в комнате, когда мы как бы отодвигали завесу невежества и продвигали вперед границы открытий, и возможность сделать это - профессиональная честь всей жизни", - сказал он на саммите Азиатско-Тихоокеанского экономического сотрудничества.
Через день совет директоров уволил Альтмана, а через 4 дня восстановил его в должности.