КОМАНДА777 (komanda777) wrote,
КОМАНДА777
komanda777

Зачем ЕС взялся за регулирование искусственного интеллекта. Юридические аспекты проблемы

ИИ собака.jpg
ФОТО: DPA/ASSOCIATED PRESS/EAST NEWS Робот-собака на Соборній площі в Ерфурті, Німеччина, 20 квітня 2021 року
На перший погляд, це виглядає як сюжет фантастичного фільму. Європейська комісія вже підготувала проєкт правил для регулювання штучного інтелекту (AI). Це перша у світі спроба комплексного врегулювання такої технології. Проте виникає запитання, чи не зарано починати втілювати у життя сюжети фантастичних книжок?

І чому саме ЄС перехопив першість у цьому питанні?

Заради прав людини


В ЕС представили строгие правила использования искусственного интеллекта

Почнемо відповідь із останнього питання: чому саме ЄС?

Насправді першість Євросоюзу є закономірною, адже стрімкий розвиток технології АІ несе значні ризики для фундаментальних прав людини, захистом яких найбільше опікуються саме в країнах ЄС.

Ці ризики значною мірою зумовлені використанням машинного навчання (ML) із застосуванням штучних нейронних мереж.

Штучні нейромережі певною мірою імітують біологічні. Завдяки цьому класичний спосіб програмування (створення програм, які здатні вибирати наперед запрограмовані варіанти поведінки для можливих і наперед визначених ситуацій) був доповнений можливістю "навчання" систем на наборах даних.

Системи АІ навчаються обирати оптимальні варіанти поведінки, запам'ятовуючи правильні реакції на вхідні дані. Потім вони використовують такі знання для майбутніх ситуацій, які можуть бути не ідентичними тим, що використовувалися при навчанні.

Такий підхід дав можливість створення систем АІ, які можуть ухвалювати рішення за фактично необмеженої кількості вхідних даних в ситуаціях,
які не були наперед запрограмовані.

При цьому недоліком є те, що такі рішення приймаються в результаті непрозорої внутрішньої роботи АІ-систем (принцип чорної скриньки). Такі системи хоч і забезпечують з високою ймовірністю ухвалення правильних рішень, однак повністю не гарантують цього.

Такий недолік набуває особливого значення, коли неправильні рішення систем АІ можуть створювати загрозу життю і здоров'ю людей. Для прикладу, коли такі системи забезпечують роботу автопілота.

Непрозорість процесу ухвалення рішення системами АІ також може ускладнювати ефективний захист прав людини.

Адже складно відповісти на питання, чиї дії стали причиною їхнього порушення або призвели до заподіяння шкоди.

Крім того, можливості систем АІ відстежувати і аналізувати значні обсяги даних і приймати на їхній основі рішення в реальному часі можуть бути використані для відстеження поведінки людей та їхньої класифікації за певними критеріями.

Це створює ризики для таких фундаментальних прав людини, як право на недоторканність особистого і сімейного життя, право на повагу до честі та гідності, а також призвести до дискримінації за расовою, гендерною та іншими ознаками.


Як оминути ризики?

Отже, що пропонує ЄС? І як нові правила допоможуть мінімізувати ризики від АІ?

Запропоновані Євросоюзом правила спрямовані на те, щоб мінімізувати ризики та забезпечити ефективний захист прав, які порушуються внаслідок використання таких систем.

Відповідно вони створюють умови для розвитку та застосування надійного АІ.

У проєкті Комісії запропоновано підхід, заснований на оцінці ризиків використання таких систем, який передбачає різні рівні:

Неприйнятний ризик – системи AI, використання яких є найбільш шкідливим, оскільки суперечить цінностям ЄС та порушує основні права.

Стосується соціального оцінювання громадян урядами; використання вразливості дітей; застосування методів впливу на підсвідомість; біометричної дистанційної ідентифікації у реальному часі в загальнодоступних місцях для правоохоронних цілей, за окремими винятками (пошук конкретних жертв злочинів, включаючи зниклих дітей; протидія безпосередній загрозі теракту; виявлення та встановлення осіб, які вчинили тяжкі злочини).

Використання таких систем буде заборонено.

Високий ризик – системи АІ, які створюють значний ризик несприятливого впливу на безпеку та здоров’я людей, їхні основні права.

Перелік систем АІ з високим ризиком є досить широким. Він включає системи з різних сфер: від систем для забезпечення безпеки управління дорожнім рухом до систем оцінки кредитоспроможності фізичних осіб при наданні послуг з кредитування.

Цей перелік у подальшому може бути доповнений. Для цього передбачена спеціальна процедура.

До таких систем також належать компоненти безпеки продукції, яка підлягає незалежній оцінці відповідності в силу галузевого законодавства Євросоюзу (наприклад, системи АІ для роботів, які застосовуються в хірургії), та системи дистанційної біометричної ідентифікації фізичних осіб.

Задля ефективного захисту основних прав людини для систем АІ з високим ризиком передбачені жорсткі технічні вимоги. Вони стосуються, наприклад, імплементації адекватних систем пом'якшення ризиків, яким неможливо запобігти, запобігання дискримінаційним результатам, забезпечення прозорості та простежуваності результатів роботи системи, а також високого рівня надійності, кібербезпеки та точності.

Перш ніж розміщувати систему AI з високим ризиком на ринку ЄС або іншим чином вводити її в експлуатацію, постачальники повинні провести її оцінку відповідності. Для окремих систем АІ до цього процесу також слід залучати незалежний орган.

Вимоги до систем АІ з високим ризиком та їхньої оцінки будуть актуальні й для українських розробників, які планують їх розміщення чи використання на ринку ЄС.

Для інших систем АІ, що не мають високого ризику, додаткові вимоги не встановлюються або встановлюються несуттєві зобов’язання.

Наприклад, їх можуть зобов'язати надавати користувачу інформацію, що він взаємодіє з машиною. До цієї категорії належить переважна більшість систем АІ, які наразі використовуються.

* * * * *

Наостанок треба зазначити, що новими правилами ЄС не регулюється питання про надання AI-системам статусу самостійних суб’єктів правовідносин та про співіснування людини з такими новими суб’єктами.

Відповідні питання набудуть практичного значення лише після того, як системам АІ стане властиве самоусвідомлення.

Втім, не виключено, що це відбудеться набагато раніше, ніж ми очікуємо.

Зокрема, за прогнозами відомого американського винахідника, футуролога та технічного директора Google Реймонда Курцвейла,
AI стане таким же розумним, як і людина, вже до 2029 року.

Человек в рабстве у искусственного интеллекта. Можно ли этому помешать...

Відтак у людства є зовсім небагато часу, щоб підготуватися до таких змін і розробити відповідне правове регулювання.


Автор и оригинал публикации

ИИ = Боевой дрон впервые убил человека без команды человека

Инопланетянин Илон Маск о том как искусственный интеллект вытеснит человечество

Tags: Евросоюз, Законодательство, ИИ, Искусственный интеллект, Новый мир, Общество, Роботы
Subscribe

Posts from This Journal “Искусственный интеллект” Tag

Buy for 1 000 tokens
Buy promo for minimal price.
  • Post a new comment

    Error

    default userpic
    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 0 comments