"Не так здорово, как кажется". Почему эксперты настороженно относятся к введению ИИ в работу госорганов Казахстана
Необходимо определить, кто будет нести ответственность за сбои, ошибки в работе ИИ и утечки персональных данных, считают эксперты.В работу казахстанских госструктур планируют внедрить цифрового помощника – искусственный интеллект. Его уже используют в разных странах. Но эксперты обеспокоены информационной безопасностью. По их мнению, такой помощник может не только помочь, но и навредить, сообщает "31 канал".
Сейчас нет никаких ограничений по использованию искусственного интеллекта, говорят эксперты. Его результаты поиска могут быть неточными, данные – неверными, а загруженные в него файлы – личные или корпоративные – могут стать добычей конкурентов или хакеров.
"Сейчас главная проблема – это утечка информации, которая происходит колоссальным образом, и многие бизнесмены, чиновники в соседних странах, министры используют для подготовки докладов ChatGPT. Это не так здорово, как могло бы показаться", – отметил эксперт по кибербезопасности Евгений Питолин.
В Казахстане создали концепцию развития искусственного интеллекта на ближайшие пять лет. При цифровом регуляторе появился Комитет по управлению ИИ. Эксперты говорят, алгоритмы его работы должны быть прозрачными для казахстанцев, чтобы люди точно знали, что происходит с их данными и как их защищают от утечки. Для того, чтобы ИИ работал без вреда для безопасности данных, нужны обученные разработчики и операторы – его конечные пользователи. При этом важно проработать вопрос ограничения работы искусственного интеллекта и ответственности в случае, если что-то пойдёт не так.
"На текущий момент в Казахстане законов об искусственном интеллекте нет, есть только концепция, разработанная недавно. Какие-то законопроекты существуют, но в публичном доступе мы пока не можем изучить их. Вопрос разделения ответственности при использовании ИИ – это важный вопрос", – сказал руководитель ОЦИБ Ps Cloud Services Александр Пушкин.
Эксперты отметили, что важно законодательно разграничить ответственность создателей и операторов искусственного интеллекта.
"Перенесём, например, на беспилотные автомобили или автомобили с автопилотом, которые используют искусственный интеллект. Ответственность в случае ДТП должны нести как разработчики ИИ, которые заложили туда функционал, так и оператор, водитель, который находится в этом автомобиле. Эту границу ответственности нужно в этом законе провести, и чтобы не было коллизий с другими законами", – добавил Пушкин.
Специалисты считают, что к разработке законопроекта следует привлечь экспертов, которые имеют опыт работы с информационной безопасностью и большими данными. Но самое главное в работе с ИИ – помнить, что конечное решение должно оставаться не за "машиной", а за человеком.