Сэм Олтмен, гендиректор создавшей популярный чат-бот с искусственным интеллектом ChatGPT компании OpenAI, выступил на слушаниях по вопросу госрегулирования ИИ в законодательном комитете сената США. Он публично признал, что быстрое развитие искусственного интеллекта создаёт значительные риски и требует государственного регулирования, сообщает The Telegraph.
Если власти не будут вмешиваться в процесс развития ИИ, то искусственный интеллект в конечном счёте может выйти из-под контроля и стать угрозой всему миру, предупредил Сэм Олтмен. В то же время он выразил уверенность в том, что у чат-ботов с ИИ есть достаточный потенциал для того, чтобы "улучшить практически каждый аспект нашей жизни".
"Больше всего я боюсь, что мы – технологическая отрасль – можем причинить миру существенный вред. Если эта технология выйдет из-под контроля, то может натворить много бед, и мы хотим сотрудничать с правительством, чтобы это предотвратить", – сказал Сэм Олтмен.
Американские сенаторы выразили главе OpenAI свои опасения и продемонстрировали, что уже сейчас искусственный интеллект может использоваться для создания правдоподобных фейков, распространения дезинформации и нарушения авторских прав. Сенатор от демократов Ричард Блюменталь открыл слушания речью, которую написал чат-бот с искусственным интеллектом и произнёс "умный" голосовой помощник – причём голосом самого Блюменталя. Политик отметил, что "развитие технологий часто опережает их правовое регулирование". Другие участники слушаний обратили внимание на то, что некоторые страны могут применять ИИ во враждебных целях, в том числе вмешиваться с его помощью в выборы за рубежом или похищать секретные сведения.
"Для меня, пожалуй, самый страшный кошмар – это надвигающаяся угроза новой промышленной революции и увольнения миллионов работников", – подчеркнул Ричард Блюменталь, имея в виду влияние искусственного интеллекта на рынок труда во всём мире.
Сэм Олтмен в ответ заверил, что "ИИ-инструменты создаются с учётом демократических ценностей". Он предложил установить требования по лицензированию, а также строгие правила безопасности и аудита для наиболее мощных систем искусственного интеллекта. По словам Олтмена, ИИ следует ограничить в возможностях – в частности, запретить ему самовоспроизводство.
Глава OpenAI также выступил за создание единой международной организации, которая могла бы регулировать применение искусственного интеллекта по аналогии с тем, как МАГАТЭ следит за атомной энергетикой. Кроме того, Олтмен подчеркнул, что персональные данные людей не должны использоваться при обучении систем ИИ.
Читайте также:
- "Байден умер". В интернете нашли около 50 сайтов с фейковыми новостями, которые пишет ChatGPT
- "Мы добились прогресса, которого сами не ожидали". Почему искусственный интеллект грозит человечеству катастрофой
- "Представьте, что с ним может сделать Путин". Создатель искусственного интеллекта предупредил о его опасности
-
1🛫 В этом году начнется строительство второй взлетно-посадочной полосы в аэропорту г. Астаны.
-
3461
-
1
-
131
-
-
2⚠️ Доброе утро, друзья! Предлагаем обзор главных новостей за 9 февраля
-
2719
-
0
-
4
-
-
3🥇Призёры зимней Олимпиады в Милане массово жалуются на разрушающиеся медали
-
2867
-
6
-
62
-
-
4🌡Прогноз погоды на 10 февраля: дождь, снег и усиление ветра ожидаются почти по всему Казахстану
-
2723
-
0
-
7
-
-
5🟢 Школу гимнастики выселяют из здания в Астане: новый собственник объяснил, почему не может иначе
-
2682
-
1
-
26
-
-
6😱 Тела женщины и троих детей обнаружили в частном доме в Актобе
-
2814
-
0
-
22
-
-
7🔋 Энергия с оговорками: как работают энергетики и почему бодрость от них обманчива
-
2878
-
0
-
11
-
-
8👮♂️ 386 ДТП с участием электросамокатов произошло в Алматы в 2025 году
-
2893
-
2
-
23
-
-
9👩⚕️ Жительница Жамбылской области, выбросившая из окна своих детей, страдала депрессией – Закиева
-
2741
-
3
-
33
-
-
10📖 Как формируется госзаказ в колледжи, какие специальности в приоритете и что это значит для абитуриентов
-
2694
-
1
-
8
-
USD:
493.1 / 496.1
EUR:
585.0 / 589.0
RUB:
6.35 / 6.47