Ещё в 2014 году Марк Цукерберг начал работу над Koolau Ranch – обширным жилым комплексом площадью 1400 акров на гавайском острове Кауаи.
Согласно журналу Wired, новый дом включает в себя убежище с собственными источниками энергии и запасами продовольствия, а строители, работающие на объекте, обязались не разглашать информацию об этом.
Почти двухметровая стена закрывала строящийся проект от посторонних глаз с близлежащей дороги.
Когда в прошлом году Цукерберга спросили, строит ли он бункер на случай конца света, основатель Facebook ответил категорическим "нет". По его словам, подземное пространство – "просто небольшое убежище, похожее на подвал".
Но это не остановило спекуляции – как и его решение купить 11 объектов недвижимости в районе Кресент-Парк в Калифорнии, под которыми, по-видимому, находится подземное пространство площадью 650 квадратных метров.
В разрешении на строительство говорится, что Цукерберг оборудует подвалы, но, по данным New York Times, некоторые из его соседей называют сооружение бункером. Или пещерой миллиардера.
Также есть спекуляции, что и некоторые другие лидеры технологической отрасли заняты скупкой участков земли с подземными помещениями для преобразования в роскошные бункеры.
Рейд Хоффман, соучредитель LinkedIn, говорил о "страховке от апокалипсиса". По его словам, около половины сверхбогатых людей имеют такую страховку, а популярное место для приобретения таких домов – Новая Зеландия.
Могут ли эти люди действительно готовиться к войне, последствиям изменения климата или какому-то другому катастрофическому событию, о котором мы ещё не знаем?
В последние несколько лет развитие искусственного интеллекта только пополнило список потенциальных экзистенциальных проблем. Многие глубоко обеспокоены стремительным темпом его развития.
Илья Суцкевер, главный научный сотрудник и соучредитель OpenAI, по сообщениям, является одним из них.
К середине 2023 года, когда компания из Сан-Франциско выпустила ChatGPT – чат-бот, который сейчас используют сотни миллионов людей по всему миру, – и быстро работала над обновлениями, Суцкевер всё больше убеждался, что компьютерные учёные находятся на грани разработки общего искусственного интеллекта (ОИИ) – момента, когда машины сравняются с человеческим интеллектом.
В книге журналистки Карен Хао рассказывается, что на одном из совещаний Суцкевер предложил коллегам выкопать подземное убежище для ведущих учёных компании до того, как такая мощная технология будет выпущена в мир.
"Мы обязательно построим бункер, прежде чем выпустим ОИИ", – сказал Суцкевер, хотя неясно, кого он имел в виду под словом "мы".
Это проливает свет на странный факт: многие ведущие компьютерные учёные и технологические лидеры, часть из которых усердно трудится над разработкой чрезвычайно интеллектуальной формы ИИ, также, похоже, очень опасаются того, к чему это однажды может привести.
Так когда же именно – если вообще когда-нибудь – появится ОИИ? И действительно ли он может оказаться настолько революционной технологией, что обычные люди начнут его бояться?
"Раньше, чем мы думаем"
Лидеры технологической отрасли заявляют, что появление ОИИ не за горами. В декабре 2024 года глава OpenAI Сэм Альтман заявил, что это произойдёт "раньше, чем думает большинство людей в мире".
Демис Хассабис, соучредитель DeepMind, предсказал, что это произойдёт в ближайшие 5–10 лет, а основатель Anthropic Дарио Амодей написал в прошлом году, что "мощный ИИ" может появиться уже в 2026 году.
Другие относятся к этому скептически. "Они постоянно меняют правила игры, – говорит Венди Холл, профессор информатики Университета Саутгемптона. – Всё зависит от того, с кем вы разговариваете".
В книге "Генезис 2024", написанной Эриком Шмидтом, Крейгом Манди и покойным Генри Киссинджером, исследуется идея сверхмощной технологии, которая становится настолько эффективной в принятии решений и руководстве, что мы в конечном итоге полностью передаём ей контроль.
По мнению авторов, вопрос не в том, будет ли это, а в том, когда это произойдёт.
Деньги для всех без необходимости работать?
Сторонники новых технологий нейросетей с энтузиазмом рассказывают об их преимуществах. Они утверждают, что сверхумный ИИ поможет найти новые лекарства от смертельных болезней, решить проблему изменения климата и изобрести неиссякаемый источник чистой энергии.
Илон Маск даже заявил, что сверхинтеллектуальный ИИ может положить начало эре "всеобщего высокого дохода".
Недавно он поддержал идею о том, что ИИ станет настолько дешёвым и распространённым, что практически каждый захочет иметь "своего личного R2-D2 и C-3PO" (ссылаясь на дроидов из "Звёздных войн").
"У каждого будет лучшее медицинское обслуживание, еда, транспорт и всё остальное. Устойчивое изобилие", – восторженно заявил он.
Конечно, есть и страшная сторона. Может ли эта технология быть захвачена террористами и использована в качестве оружия или что, если она сама решит, что человечество является причиной мировых проблем, и уничтожит нас?
"Научное сообщество утверждает, что технология ИИ потрясающая, – добавляет она. – Но она далека от человеческого интеллекта".
Сначала необходимо будет совершить ряд "фундаментальных прорывов", соглашается Бабак Ходжат, технический директор технологической компании Cognizant.
И вряд ли это произойдёт в один момент. Скорее, ИИ – это быстро развивающаяся технология, которая находится в стадии становления, и многие компании по всему миру стремятся разработать свои собственные версии этой технологии.
"Если что-то умнее нас, то мы должны держать это под контролем, – предупредил Тим Бернерс-Ли, создатель Всемирной паутины. – Мы должны иметь возможность это отключить".
И государства уже принимают защитные меры. В США, где базируются многие ведущие компании в области ИИ, президент Байден в 2023 году подписал указ, обязывающий некоторые фирмы делиться результатами тестов безопасности с федеральным правительством. Но президент Трамп впоследствии отменил часть этого указа, назвав его "барьером" для инноваций.
В Великобритании два года назад был создан Институт безопасности ИИ – финансируемый государством исследовательский орган – для лучшего понимания рисков, связанных с передовым ИИ.
Это всё паника?
Нил Лоуренс – профессор машинного обучения в Кембриджском университете. По его мнению, вся эта дискуссия сама по себе не имеет смысла.
"Понятие общего искусственного интеллекта столь же абсурдно, как и понятие искусственного общего транспортного средства", – утверждает он.
"Правильный транспорт зависит от контекста. Я летел в Кению на Airbus A350, каждый день езжу на машине в университет, хожу пешком в кафетерий... Нет такого транспортного средства, которое могло бы делать всё это", – добавил он.
Для него разговоры об ОИИ – это отвлекающий манёвр: "Технологии, которые мы [уже] создали, впервые позволяют обычным людям напрямую общаться с машиной и потенциально заставлять её делать то, что они хотят. Это абсолютно необыкновенно... и совершенно революционно".
"Большая проблема в том, что мы настолько увлечены рассказами крупных технологических компаний об ОИИ, что упускаем из виду способы, с помощью которых мы можем улучшить жизнь людей", – рассуждает он.
Но есть сверхбогатые люди, у которых есть свои планы "страховки от апокалипсиса".
"Когда кто-то говорит, что он "покупает дом в Новой Зеландии", – это своего рода намёк, мол, "всё понятно, дальше можно не объяснять", – ранее говорил сооснователь LinkedIn Рид Хоффман.
То же самое, по всей видимости, касается и бункеров. Но тут есть одна сугубо человеческая слабость.
Однажды я встретила бывшего телохранителя миллиардера, у которого был собственный "бункер". Он рассказал, что в случае реального апокалипсиса приоритетом охраны будет устранение самого босса и занятие бункера. И, похоже, он не шутил.
Но одна из причин, по которым эта идея волнует некоторых в Кремниевой долине, заключается в том, что она считается предшественником чего-то ещё более продвинутого: искусственного сверхинтеллекта – технологии, превосходящей человеческий интеллект.
Ещё в 1958 году концепция сингулярности была посмертно приписана венгерскому математику Джону фон Нейману. Она описывает момент, когда компьютерный интеллект превзойдёт человеческое понимание.
Современные инструменты искусственного интеллекта обучаются на огромных массивах данных и хорошо распознают закономерности, будь то признаки опухоли на снимках или слово, которое с наибольшей вероятностью следует за другим в определённой последовательности. Но они не "чувствуют", какими бы убедительными ни казались их ответы.
"Есть некоторые хитрости, которые позволяют большой языковой модели (основа чат-ботов ИИ) вести себя так, как будто она имеет память и учится, но они неудовлетворительны и значительно уступают человеческим способностям", – говорит Бабак Ходжат.
Винс Линч, генеральный директор калифорнийской компании IV.AI, также с осторожностью относится к преувеличенным заявлениям о сверхинтеллекте.
"Это отличный маркетинговый ход, – говорит он. – Если ваша компания создаёт самое умное из когда-либо существовавших устройств, люди будут готовы платить вам деньги".
Он добавляет: "Это не дело двух лет. Для этого требуются огромная вычислительная мощность, огромный творческий потенциал людей, огромное количество проб и ошибок".
Интеллект без сознания
В некотором смысле ИИ уже превзошёл человеческий мозг. Генеративный инструмент ИИ может в одну минуту быть экспертом по средневековой истории, а в следующую – решать сложные математические уравнения.
Некоторые технологические компании заявляют, что не всегда знают, почему их продукты реагируют именно так, а не иначе. Meta утверждает, что есть некоторые признаки того, что её системы ИИ совершенствуются.
Однако в конечном итоге, независимо от того, насколько умными становятся машины, с биологической точки зрения человеческий мозг по-прежнему выигрывает. Он имеет около 86 млрд нейронов и 600 трлн синапсов, что намного больше, чем у искусственных аналогов.
Мозг также не нуждается в паузах между взаимодействиями и постоянно адаптируется к новой информации.
"Если вы скажете человеку, что на экзопланете обнаружена жизнь, он сразу это усвоит, и это повлияет на его мировоззрение. А вот для LLM [большой языковой модели] это знание будет существовать только до тех пор, пока вы продолжаете повторять это как факт, – говорит Ходжат. – LLM также не обладают метапознанием, что означает, что они не совсем понимают, что они знают. Люди, похоже, обладают способностью к самоанализу, которую иногда называют сознанием, которая позволяет им понимать, что они знают".
Это фундаментальная часть человеческого интеллекта, которую ещё предстоит воспроизвести в лаборатории.
«Запрещено копировать, распространять или иным образом использовать материалы Русской службы Би-би-си»
-
1✈️ Токаев поручил увеличить производство авиатоплива в Казахстане
-
3021
-
0
-
125
-
-
2💬 Аким Улытауской области назвал плюс скандального ляпа в журнале Scat
-
3170
-
4
-
37
-
-
3❗️ Землетрясение произошло в Алматы
-
2693
-
10
-
173
-
-
4⚡️ Алматинцы, кому пришло оповещение о землетрясении?
-
2756
-
27
-
106
-
-
5❗️Ещё 14 продуктов могут попасть в список социально значимых в Казахстане
-
2746
-
3
-
28
-
-
6🚫 Roblox заблокировали в России: регулятор заявил об угрозах для детей
-
2675
-
9
-
65
-
-
7🔖 Токаев поручил пересмотреть тарифную политику аэропортовых услуг
-
2926
-
0
-
107
-
-
8По данным МЧС, толчки ощущались в Алматинской, Жетысуской и Жамбылской областях.
-
2529
-
1
-
170
-
-
9🔖 Закон о запрете пропаганды ЛГБТ: сенаторы взяли время на доработку отдельных норм
-
2344
-
5
-
148
-
-
10🌡Прогноз погоды на 4 декабря: в Астане и 14 областях страны объявили штормовое предупреждение
-
2450
-
0
-
6
-
USD:
505.5 / 508.5
EUR:
587.5 / 592.5
RUB:
6.47 / 6.59