Специалисты OpenAI предупредили совет директоров компании о прорыве в области искусственного интеллекта перед отстранением генерального директора Сэма Олтмена, сообщает Reuters.
Перед отстранением от должности генерального директора OpenAI Сэма Олтмена несколько сотрудников написали письмо совету директоров, в котором предупредили о мощном открытии в области искусственного интеллекта, которое, по их мнению, может угрожать человечеству. Источники Reuters назвали это письмо одним из факторов в длинном списке претензий совета директоров, приведших к увольнению Олтмена. Ранее одной из причин его увольнения назвали недостаточную откровенность в сообщениях.
22 ноября Сэма Олтмена восстановили в должности, а совет директоров, уволивший его, распустили и сформировали новый состав.
По информации источников, прорыв в сфере искусственного интеллекта связан с проектом под названием Q* (произносится как Q-Star). Cообщалось, что проект Q* может стать прорывом в создании сверхинтеллекта, который обычно называют общим искусственным интеллектом (AGI). Считается, что если реализовать AGI в полной мере, то он сможет выполнять любые интеллектуальные задачи, которые пока могут выполнять только люди.
"При наличии огромных вычислительных ресурсов новая модель способна решать математические задачи", – сказал в комментарии на условиях анонимности один из сотрудников OpenAI.
Учёные считают математику одним из рубежей развития генеративного ИИ. Пока что такой искусственный интеллект хорошо справляется с написанием текста и переводом языка, статистически предсказывая следующее слово, а ответы на один и тот же вопрос могут сильно различаться. Но освоение математики, где существует только один правильный ответ, предполагает, что ИИ будет обладать более широкими способностями и возможностями рассуждения, напоминающими человеческий интеллект.
По словам источников, в своём письме в совет исследователи обратили внимание на возможности искусственного интеллекта и его потенциальную опасность. Среди учёных-компьютерщиков давно ведутся дискуссии об опасности, которую могут представлять собой высокоинтеллектуальные машины. В частности, обсуждается вопрос, могут ли они решить, что уничтожение человечества отвечает их интересам.
Читайте также:
- "Мы поставили мир под угрозу". Создатель ChatGPT выступил за госрегулирование искусственного интеллекта
- Скандал в OpenAI: Создатель ChatGPT Сэм Олтмен возвращается на пост гендиректора компании
- Искусственный интеллект позволит миллионам работников перейти на четырехдневную неделю к 2033 году
- Великобритания, США, ЕС и Китай подписали декларацию о "катастрофической" опасности ИИ
-
1❗️«Не пейте энергетики» - пациент после трансплантации сердца обратился к казахстанцам
-
2717
-
2
-
29
-
-
2⭕Более 30 тонн катодной меди украли из железнодорожного вагона в Карагандинской области
-
2706
-
2
-
21
-
-
3😔 Скончалась звезда фильма «Москва слезам не верит» актриса Вера Алентова
-
2507
-
1
-
65
-
-
4⚡️ Скончался заслуженный деятель Казахстана Нурлан Сегизбаев, сообщает министерство культуры и информации.
-
2079
-
4
-
68
-
-
5🗣 Проломил жене череп и размозжил лицо: осуждённого по делу Алтынай оставят в колонии-поселении
-
2307
-
3
-
45
-
-
6❄️ Прогноз погоды на 27 декабря: осадки ожидаются на юге страны, на севере и востоке – морозы
-
2140
-
0
-
2
-
-
7😔 Ушли в горы и не вернулись: тело одного из троих пропавших нашли в Алматы
-
2093
-
1
-
28
-
-
8🐢❌ В Казахстане до 2040 года запретили использование среднеазиатской черепахи
-
2063
-
2
-
25
-
-
9🔨 Пожизненное лишение свободы получил житель Алматы за убийство женщины и её малолетней дочери
-
2240
-
2
-
34
-
-
10⚠️ Доброе утро! Предлагаем обзор главных новостей за 25 декабря
-
2323
-
0
-
2
-
lw-3094948329-4
USD:
509.5 / 514.5
EUR:
595.0 / 601.0
RUB:
6.43 / 6.55