В Євросоюзі розробили "етикет" для штучного інтелекту

Єврокомісія започатковує пілотний проект з визначення на практиці етичних принципів, за якими у Європі розвиватиметься штучний інтелект.

Це зроблено на основі роботи групи експертів високого рівня, яка була утворена у 2018 році в рамках Стратегії ЄС із розвитку штучного інтелекту, повідомляється на сайті Європейської Комісії.

"Етичний вимір штучного інтелекту не є предметом розкоші або чимось таким, чим можна нехтувати. Оскільки лише за умови довіри наше суспільство може повною мірою скористатися технологіями. Етичний штучний інтелект - це вигідний усім проект, що може стати конкурентною перевагою для Європи: у розробці штучного інтелекту, який створюється для людини і якому люди можуть довіряти", - зазначив з цього приводу віце-президент з питань єдиного цифрового ринку Андрус Ансіп.

Як зазначають у Єврокомісії, штучний інтелект може застосовуватися у багатьох сферах, включаючи охорону здоров’я, споживання енергії, безпеку автомобільної техніки, фермерське виробництво, боротьбу з кліматичними змінами, моніторинг фінансових ризиків та у багатьох інших. Штучний інтелект може допомагати у викритті шахрайства або зловживань, кібернетичних злочинів та загроз, стати ефективним інструментом в руках правоохоронних органів для боротьби проти злочинності.

Водночас, використання таких технологій несе нові виклики правового та етичного характеру.

У вирішенні цієї проблеми Єврокомісія дотримується правила "трьох кроків": визначення ключових вимог до штучного інтелекту, якому можна довіряти, обговорення таких вимог із представниками промисловості та користувачами в рамках пілотного проекту, результатом яких має розбудова міжнародного погодження щодо розбудови штучного інтелекту виключно в інтересах людини.

На сьогодні європейські експерти визначили сім ключових принципів, яким має відповідати штучний інтелект.

Передусім, він має заслуговувати на довіру, відповідати законам та правилам.

По-друге, штучний інтелект має обов’язково передбачати контроль з боку людини, розроблятися з повагою до інтересів суспільства та прав людини, не зменшувати та не обмежувати право людини на прийняття рішень.

Третє правило – надійність та безпека. Всі такі системи мають бути достатньо стабільними на випадок помилок або дисфункції систем на весь період їхнього функціонування.

Четверта вимога – повага до приватних прав людини та до безпеки баз даних, коли такі дані не будуть використовуватися проти людини.

П’яте правило – прозорість. Людина має отримати можливість відслідковувати результати діяльності штучного інтелекту або відповідних систем.

Читайте також: Євросоюз розпочинає цільову програму з розвитку штучного інтелекту

Шосте - ці системи мають застосовуватися на недискримінаційній основі, тобто, штучний інтелект має враховувати всі людські особливості, включаючи фізичну спроможність, навички та потреби, і бути доступним для всіх людей.

Сьоме – такі системи мають сприяти розвитку суспільства та вирішенню проблем охорони довкілля, що передбачає принцип відповідальності людини за використання систем штучного інтелекту та за результати такої діяльності.

Як наголошується, Єврокомісія прагне винести цей підхід щодо розбудови «етичного» штучного інтелекту на глобальне обговорення, тому що новітні технології та алгоритми не знають жодних кордонів. Вже зараз для досягнення цієї мети Євросоюз зміцнює двосторонню співпрацю з ключовими міжнародними партнерами, зокрема з Японією, Канадою, Сінгапуром, ініціює обговорення зазначеного питання в форматі «Великої сімки», «Великої двадцятки», залучає до таких дискусій міжнародні компанії та організації.

За оцінкою Єврокомісії, яка міститься у Стратегії ЄС щодо розвитку штучного інтелекту, прийнятій у квітні 2018 року, обсяг державних та приватних інвестицій у цю галузь у європейських країнах може сягати до 20 мільярдів євро щороку, принаймні, протягом наступних 10 років.