• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Эксперты Вышки разобрались, кто должен нести ответственность за действия искусственного интеллекта

Эксперты Вышки разобрались, кто должен нести ответственность за действия искусственного интеллекта

© iStock

Искусственный интеллект (ИИ) вскоре может стать участником принятия юридически значимых решений, система ИИ фактически будет наделена властью, считают эксперты Института права цифровой среды НИУ ВШЭ. Поэтому должен быть решен вопрос о порядке ответственности в случае «автоматизированного принятия решения». О том, должны ли отвечать за действия системы ее разработчики и какие меры государство может принять для развития инвестпроектов в сфере ИИ, эксперты рассказали в специальном докладе.

В докладе «Правовые аспекты использования искусственного интеллекта: актуальные проблемы и возможные решения» отмечается, что уже в самое ближайшее время во всем мире будет наблюдаться процесс постепенного правового признания тех или иных «действий» системы искусственного интеллекта и их последствий, а также формализации этих действий. Быстрое развитие технологий искусственного интеллекта ставит вопрос о правовом статусе использования систем ИИ, обладающих разной степенью автономности: по некоторым прогнозам, к 2075 году мыслительные процессы роботов уже нельзя будет отличить от процессов мышления человека.

Эксперты подчеркивают, что «принятие юридически значимых решений может обладать характером властного воздействия, то есть, по сути, система ИИ фактически будет наделена властью, в этом случае должен быть определенно решен вопрос о порядке ответственности в случае такого автоматизированного принятия решения».

Расширение использования ИИ поднимает много проблем, одной из важнейших является достижение баланса между экономическими интересами и интересами общества, ставшая отражением глубокого конфликта выгоды и морали. В России этические проблемы развития и использования цифровых технологий в РФ не являются на данный момент действительно важной частью повестки не только государственных органов власти и коммерческих структур, но и общества в целом, подчеркивают авторы доклада.

Тем не менее, этой темой государству придется заниматься. При рассмотрении ответственности ИИ целесообразно говорить, в первую очередь, о деликтной ответственности, то есть меры ответственности должны быть установлены как реакция на вред, который ИИ может причинить или причиняет.

«В случае признания ИИ только объектом права, к чему пока что склоняются в мире, ответственность должна быть распределена по разным этапам жизненного цикла ИИ (этап разработки, этап эксплуатации, этап утилизации). При этом ответственность ИИ сводится не к карательно-воспитательным мерам, а к установлению действенного механизма управления рисками», — считают эксперты Вышки.

В свете возможного возложения ответственности на разработчиков необходимо хотя бы на начальных этапах предусмотреть сбалансированную систему иммунитетов для них, добавив обязательное страхование ответственности, а также регистрацию систем ИИ. В случае признания ИИ субъектом возможно установление режима совмещенной ответственности, когда субсидиарную ответственность могут нести и создатель ИИ, и его владелец или иной субъект, говорится в исследовании.

Эксперты Вышки также предложили способы устранения барьеров для инвестпроектов в сфере искусственного интеллекта и робототехники. В частности, речь идет о создании экспериментальных правовых режимов для разработки новых технологий специальных правовых режимов для привлечения инвестиций, предусматривающих налоговые льготы.

Читать доклад

Вам также может быть интересно:

Ученые Вышки научили нейросеть «слышать» неисправности в электродвигателях

Ученые  Института искусственного интеллекта и цифровых наук (ИИиЦН) факультета компьютерных наук НИУ ВШЭ разработали метод Signature-Guided Data Augmentation (SGDA), который способен с точностью 99% определять неисправность двигателей и с точностью 86% классифицировать типы возникших поломок. Применение этой разработки может снизить расходы на ремонт промышленного оборудования, уменьшить простои и сделать производство безопаснее. Результаты исследования опубликованы в журнале Engineering Applications of Artificial Intelligence.

«Подготовка инженеров нового поколения невозможна без интеграции инструментов ИИ в отраслевые ОП»

26 февраля в Уфе на площадке Межвузовского студенческого кампуса Евразийского научно-образовательного центра прошла защита итоговых проектов пилотного курса образовательной программы «ИИ-инженерия в нефтегазовой отрасли». Эксперты НИУ ВШЭ оценили студенческие проекты в сфере искусственного интеллекта, выполненные для «Газпрома» в рамках федерального проекта «Экономика данных и цифровая трансформация государства».

Стартует набор на онлайн-программу повышения квалификации «Основы ИИ-агентов для автоматизации процессов»

В Центре непрерывного образования факультета компьютерных наук НИУ ВШЭ открыт набор на новую онлайн-программу повышения квалификации «Основы ИИ-агентов для автоматизации процессов». Программа разработана для тех, кто стремится перейти от базового использования нейросетей в формате чат-ботов к созданию прикладных интеллектуальных инструментов для автоматизации бизнес-задач. Курс ориентирован на слушателей, заинтересованных в практическом освоении современных подходов к разработке автономных ИИ-агентов на базе больших языковых моделей и их внедрении в рабочие процессы.

Ученые НИУ ВШЭ научились сжимать большие языковые модели без потерь в качестве

Исследователи из Института искусственного интеллекта и цифровых наук (Институт ИИиЦН) ФКН НИУ ВШЭ разработали новый метод сжатия больших языковых моделей, таких как GPT и LLaMA, который позволяет уменьшить их объем на 25–36% без дополнительного обучения и значительной потери в точности. Это первый подход, который использует математические преобразования — вращения весов модели, — чтобы сделать модели более удобными для сжатия с помощью структурированных матриц. Результаты исследования опубликованы в ACL Findings 2025. Код метода доступен на GitHub.

В Вышке продолжается набор на программу «ИИ-лидеры: бизнес-лаборатория для руководителей»

26 февраля на факультете компьютерных наук стартует 6-месячное очное обучение. О программе рассказывает ее автор и руководитель Евгений Соколов, научный руководитель Центра непрерывного образования ФКН.

Ученые ВШЭ разработали DeepGQ — Google Maps для G-квадруплексов

Исследователи из Центра искусственного интеллекта ФКН НИУ ВШЭ разработали ИИ-модель, которая открывает новые возможности для диагностики и лечения тяжелых заболеваний, включая рак мозга и нейродегенеративные нарушения. Ученые применили искусственный интеллект для изучения G-квадруплексов — структур, которые оказывают значительное влияние на работу наших клеток и развитие различных органов и тканей. Статья с результатами исследования опубликована в журнале Scientific Reports.

ИИ в науке: страхи и чаяния российских ученых

Искусственный интеллект стал привычным инструментом в ряде стран, однако в российской науке его внедрение пока остается фрагментарным. К такому выводу пришли авторы первого в стране комплексного исследования использования технологий ИИ в научной деятельности. Они провели интервью с ведущими российскими учеными и расспросили их о сферах применения, возможностях и барьерах технологии.

«Выигрывают те, кто умеет быстро адаптироваться и внедрять инновации»

НИУ ВШЭ запускает образовательную программу «ИИ-лидеры: бизнес-лаборатория для руководителей». Обучение рассчитано на 6 месяцев в очном формате, что позволяет глубоко погрузиться в материал и обменяться опытом с коллегами. Программа стартует в феврале 2026 года.

ВШЭ ищет новые идеи для ИИ-агентов: стартовал конкурс инициатив

Высшая школа экономики приглашает исследователей и преподавателей представить концепции новых цифровых продуктов на базе искусственного интеллекта. Лучшие проекты получат экспертную и технологическую поддержку. Заявки принимаются до 19 декабря.

Экономисты ВШЭ выяснили, что ИИ слишком хорошо думает о людях

Ученые из НИУ ВШЭ выяснили, что современные ИИ-модели, включая ChatGPT и Claude, в играх на стратегическое мышление вроде «конкурса красоты» Кейнса переоценивают уровень рациональности своих оппонентов, будь то студенты-первокурсники или опытные ученые. Модели стараются предсказать поведение людей, но в итоге играют «слишком умно» и проигрывают, потому что приписывают людям больше логики, чем те демонстрируют на деле. Исследование опубликовано в Journal of Economic Behavior & Organization.