Специалисты OpenAI предупредили совет директоров компании о прорыве в области искусственного интеллекта перед отстранением генерального директора Сэма Олтмена, сообщает Reuters.
Перед отстранением от должности генерального директора OpenAI Сэма Олтмена несколько сотрудников написали письмо совету директоров, в котором предупредили о мощном открытии в области искусственного интеллекта, которое, по их мнению, может угрожать человечеству. Источники Reuters назвали это письмо одним из факторов в длинном списке претензий совета директоров, приведших к увольнению Олтмена. Ранее одной из причин его увольнения назвали недостаточную откровенность в сообщениях.
22 ноября Сэма Олтмена восстановили в должности, а совет директоров, уволивший его, распустили и сформировали новый состав.
По информации источников, прорыв в сфере искусственного интеллекта связан с проектом под названием Q* (произносится как Q-Star). Cообщалось, что проект Q* может стать прорывом в создании сверхинтеллекта, который обычно называют общим искусственным интеллектом (AGI). Считается, что если реализовать AGI в полной мере, то он сможет выполнять любые интеллектуальные задачи, которые пока могут выполнять только люди.
"При наличии огромных вычислительных ресурсов новая модель способна решать математические задачи", – сказал в комментарии на условиях анонимности один из сотрудников OpenAI.
Учёные считают математику одним из рубежей развития генеративного ИИ. Пока что такой искусственный интеллект хорошо справляется с написанием текста и переводом языка, статистически предсказывая следующее слово, а ответы на один и тот же вопрос могут сильно различаться. Но освоение математики, где существует только один правильный ответ, предполагает, что ИИ будет обладать более широкими способностями и возможностями рассуждения, напоминающими человеческий интеллект.
По словам источников, в своём письме в совет исследователи обратили внимание на возможности искусственного интеллекта и его потенциальную опасность. Среди учёных-компьютерщиков давно ведутся дискуссии об опасности, которую могут представлять собой высокоинтеллектуальные машины. В частности, обсуждается вопрос, могут ли они решить, что уничтожение человечества отвечает их интересам.
Читайте также:
- "Мы поставили мир под угрозу". Создатель ChatGPT выступил за госрегулирование искусственного интеллекта
- Скандал в OpenAI: Создатель ChatGPT Сэм Олтмен возвращается на пост гендиректора компании
- Искусственный интеллект позволит миллионам работников перейти на четырехдневную неделю к 2033 году
- Великобритания, США, ЕС и Китай подписали декларацию о "катастрофической" опасности ИИ
-
1🎉 Группа Orda, ансамбль "Яшлык" и V$XV Prince. Как интересно провести выходные 23 и 24 ноября в Астане и Алматы
- 5571
- 1
- 6
-
2⚠️ Доброе утро! Предлагаем обзор главных новостей за 20 ноября
- 2500
- 0
- 5
-
3🍇 В модном винограде без косточек казахстанские специалисты не нашли вредных бактерий
- 2539
- 3
- 23
-
4🤔 Борьба с покупкой водительских прав: автошколы отказываются передавать частной компании данные о выпускниках
- 2314
- 2
- 26
-
5👀 В Казахстане редко назначают домашний арест, несмотря на большие расходы на содержание в СИЗО
- 2193
- 2
- 9
-
6👨⚖️👨⚖️👨⚖️🟢Суд Алматы отправил руководителя таможенной лаборатории в колонию за взятки
- 2183
- 0
- 25
-
7🎫✈️ Станут ли невозвратные билеты возвратными и зачем субсидировать авиарейсы – глава КГА
- 2248
- 0
- 11
-
8😱 Одного из богатейших людей мира обвинили во взяточничестве. Акции его компаний обвалились
- 2296
- 3
- 14
-
9🟢 Улице в Астане присвоили имя общественного деятеля
- 2222
- 2
- 46
-
10🚛🏗 Торговля и логистика в Центральной Азии: новые коридоры, продукты и D2C-модель
- 2209
- 0
- 6