Інструменти штучного інтелекту: презентація Гайду для організацій громадянського суспільства

16 січня, 12:30 - презентація Гайду для організацій громадянського суспільства про інструменти штучного інтелекту.

Організатор: Центр демократії та верховенства права (ЦЕДЕМ).

Учасники: Фраческа Фануччі - головна юридична радниця Європейського центру некомерційного права (ECNL); Тетяна Авдєєва - юристка Лабораторії цифрової безпеки; Ольга Петрів - юристка ЦЕДЕМ; Ігор Розкладай - заступник директорки ЦЕДЕМ.

Модератор: Володимир Куделя - менеджер проєктів ЦЕДЕМ.

Чому це цікаво?

Гайд для організацій громадянського суспільства про інструменти штучного інтелекту розроблено, щоб окреслити переваги та ризики, які несе використання ШІ для громадського сектору в Україні. 

Організатори заходу зазначають, що громадським організаціям доцільного використовувати ШІ, адже він значно спростить і пришвидшить робочі процеси. Водночас слід вчитися відповідально й раціонально користуватися його інструментами. Snapchat, deepfake (діпфейки), shallowfake (шелоуфейки), цифровий фандрейзинг, формування контенту, цифрові камери відеоспостереження з функцією розпізнавання обличчя — це тільки верхівка айсберга інструментів ШІ, які можуть вплинути на роботу громадського сектору.

Для організацій громадянського суспільства (ОГС) важливо вчасно розпізнати можливості штучного інтелекту та інтегрувати їх у свою операційну діяльність, визначити потенційні загрози й виробити механізми запобігання. А ще важливіше — продумати, яким має бути законодавство, що регулюватиме ШІ, і зробити його дружнім для ОГС.

Під час презентації відбудеться панельне обговорення за участі українських та іноземних експертів.

Довідково. Гайд створено в межах проєкту “Ініціатива секторальної підтримки громадянського суспільства”, що реалізується ІСАР Єднання у консорціумі з Українським незалежним центром політичних досліджень (УНЦПД) та Центром демократії та верховенства права (ЦЕДЕМ) завдяки щирій підтримці американського народу, наданій через Агентство США з міжнародного розвитку.

Формат заходу – офлайн (Зала 2) + онлайн-включення

Учасники можуть поставити питання офлайн (Зала 2).

Акредитація для участі: events@cedem.org.ua

Акредитація триватиме до 10.00 16 січня 2024 року. Для підтвердження необхідно вказати ім’я, прізвище і назву видання чи організації, яку представляєте.

Захід транслюватиметься на сайті та YouTube-каналі Укрінформу: https://www.youtube.com/@UkrinformTV.

Адреса Укрінформу: м. Київ, вул. Богдана Хмельницького, 8/16.

Використання будь-яких матеріалів з офіційного YouTube-каналу Укрінформ можливе лише за умови дотримання авторських прав, встановлених каналом. Під час демонстрації ролика в ході прямого ефіру необхідно послатися на автора — Укрінформ — показати його назву на екрані та вимовити її вголос.

Читайте Пресцентр Укрінформу в Telegram: https://t.me/presscenter_ukrinform?fbclid=IwAR0st84A_-gZzdo-Yej3lg_laJJuJ1ImX1BcnOYGJ4BVfV0io9vdlyfFP3w.

Підсумкові матеріали:

До ШІ потрібно встановлювати запобіжники там, де він несе серйозну загрозу приватності - аналітик

Штучний інтелект - це інструмент, і до нього треба поставитися як до будь-якого інструменту – тобто встановлювати запобіжники і вимоги там, де він несе серйозну загрозу приватності та безпеці людини.

Про це під час презентації в Укрінформі гайду для організацій громадянського суспільства про інструменти штучного інтелекту заявив заступник директорки Центру демократії та верховенства права (ЦЕДЕМ) Ігор Розкладай.

«ШІ – це інструмент, і я погоджуюся з тим, що до нього треба поставитися як до будь-якого інструменту – тобто, встановлювати запобіжники, встановлювати вимоги там, де він несе серйозну загрозу приватності, безпеці, по суті, життю людини. І точно не наділяти його функцією прийняття остаточного рішення», - сказав він.

Розкладай зазначив, що штучний інтелект може бути допоміжним інструментом - наприклад, виловлювати з мережі зображення злочинців, наприклад.

«Але не ШІ має прийняти рішення, що це злочинець і його треба пристрелити. Цей достатньо розумний збалансований підхід має дозволити нам нормально взаємодіяти з цим явищем. Його (штучний інтелект – ред.) точно не треба боятися і забороняти, але … над ним потрібно працювати і постійно проводити аналіз ризиків», - вважає аналітик.

Головна юридична радниця Європейського центру некомерційного права (ECNL) Фраческа Фануччі заявила, що залежно від мети і контексту застосування цієї технології можуть існувати різні рівні ризику для людей.

«Один із найперших ризиків – це помилково позитивні або негативні ідентифікації. Те, що називають «хибно позитивні». Ми завжди маємо пам’ятати, що алгоритм ніколи не повертає остаточний результат, а лише (показує – ред.) імовірності. Це означає, що коли велика кількість людей перевіряється масово – наприклад, на вулиці, площі, або там, де багато машин, - існує ризик помилкової ідентифікації», - розповіла юридична радниця ECNL.

За її словами, в Україні зараз діє воєнний стан, і для таких випадків існують міжнародні стандарти відступу від захисту певних прав людини.

«Ці відступи мають бути винятковими і тимчасовими і виправдовуватися виключно характером і невідкладністю ситуації. Тобто, наприклад, якщо ці камери (з функцією розпізнавання обличчя – ред.) встановили через війну, тоді їх треба прибрати після закінчення війни чи провести нову оцінку ризиків, для чого їх можна застосовувати», - вважає Фануччі.

Розкладай переконаний, що технології на кшталт цих камер мають дуже жорстко регулюватися.

«Так само як і медичні дані, біометричні дані – вони мають максимально жорстко обмежитися, максимальне має бути протоколювання. Має бути дуже обмежений термін зберігання цих відео і так далі, бо інакше це – шлях до Китаю, де кожен поліцейський, дивлячись на вас, вже знає про вас все», - заявив він.

Як повідомляв Укрінформ, компанія OpenAI скасувала заборону на використання штучного інтелекту для військових цілей.

У Києві презентували Гайд для громадських організацій про інструменти ШІ

В Україні розробили Гайд для організацій громадянського суспільства про інструменти штучного інтелекту, в якому окреслюються переваги та ризики використання ШІ для громадського сектору.

Його презентація відбулася в Укрінформі.

«ШІ – це реальність, яка настала, але чи готовий громадський сектор до цієї реальності і що потрібно робити організаціям громадянського суспільства із цими інструментами? Ми спробували детальніше це розкрити у самому гайді: що саме організації громадянського суспільства можуть робити з інструментами штучного інтелекту, як вони їх можуть застосовувати для власної роботи тощо», - зазначив менеджер проєктів Центру демократії та верховенства права (ЦЕДЕМ) Володимир Куделя.

За його словами, робота над гайдом тривала кілька місяців, він має понад 50 сторінок і 6 ключових розділів.

«Гайд побудовано за принципом кількох блоків. Перший – це блок про генеративний штучний інтелект, чим він є тощо. Другий присвячено практичним способам застосування цього генеративного штучного інтелекту у роботі ОГС. Після цього йде розділ про дипфейки і шеллоуфейки - які загрози вони становлять і як їх можна застосовувати у нейтральних цілях», - розповів Куделя.

Заключний блок, за словами менеджера проєктів ЦЕДЕМ, розповідає про технологію розпізнавання обличчя, ризики її застосування і ситуацію щодо регулювання її застосування в Україні і ЄС.

Юрист ЦЕДЕМ Ольга Петрів зазначила, що у гайді можна знайти інформацію про створення презентацій, чат-боти, створення діаграм тощо. Вона також зауважила, що потрібно цікавитися новинками у сфері штучного інтелекту, яких «щодня стає все більше і більше, а ті, хто в курсі цієї інформації, завжди будуть на крок попереду».

Гайд створено в межах проєкту «Ініціатива секторальної підтримки громадянського суспільства», що реалізується ІСАР Єднання у консорціумі з Українським незалежним центром політичних досліджень (УНЦПД) та Центром демократії та верховенства права завдяки підтримці американського народу, наданій через Агентство США з міжнародного розвитку.

Як повідомлялося, директор-розпорядник МВФ Крісталіна Георгієва вважає, що штучний інтелект може збільшити нерівність між країнами.

Відео:

Video:

Замовити фото натисніть тут - Фотобанк