Інструменти штучного інтелекту: презентація Гайду для організацій громадянського суспільства
Організатор: Центр демократії та верховенства права (ЦЕДЕМ).
Учасники: Фраческа Фануччі - головна юридична радниця Європейського центру некомерційного права (ECNL); Тетяна Авдєєва - юристка Лабораторії цифрової безпеки; Ольга Петрів - юристка ЦЕДЕМ; Ігор Розкладай - заступник директорки ЦЕДЕМ.
Модератор: Володимир Куделя - менеджер проєктів ЦЕДЕМ.
Чому це цікаво?
Гайд для організацій громадянського суспільства про інструменти штучного інтелекту розроблено, щоб окреслити переваги та ризики, які несе використання ШІ для громадського сектору в Україні.
Організатори заходу зазначають, що громадським організаціям доцільного використовувати ШІ, адже він значно спростить і пришвидшить робочі процеси. Водночас слід вчитися відповідально й раціонально користуватися його інструментами. Snapchat, deepfake (діпфейки), shallowfake (шелоуфейки), цифровий фандрейзинг, формування контенту, цифрові камери відеоспостереження з функцією розпізнавання обличчя — це тільки верхівка айсберга інструментів ШІ, які можуть вплинути на роботу громадського сектору.
Для організацій громадянського суспільства (ОГС) важливо вчасно розпізнати можливості штучного інтелекту та інтегрувати їх у свою операційну діяльність, визначити потенційні загрози й виробити механізми запобігання. А ще важливіше — продумати, яким має бути законодавство, що регулюватиме ШІ, і зробити його дружнім для ОГС.
Під час презентації відбудеться панельне обговорення за участі українських та іноземних експертів.
Довідково. Гайд створено в межах проєкту “Ініціатива секторальної підтримки громадянського суспільства”, що реалізується ІСАР Єднання у консорціумі з Українським незалежним центром політичних досліджень (УНЦПД) та Центром демократії та верховенства права (ЦЕДЕМ) завдяки щирій підтримці американського народу, наданій через Агентство США з міжнародного розвитку.
Формат заходу – офлайн (Зала 2) + онлайн-включення
Учасники можуть поставити питання офлайн (Зала 2).
Акредитація для участі: events@cedem.org.ua
Акредитація триватиме до 10.00 16 січня 2024 року. Для підтвердження необхідно вказати ім’я, прізвище і назву видання чи організації, яку представляєте.
Захід транслюватиметься на сайті та YouTube-каналі Укрінформу: https://www.youtube.com/@UkrinformTV.
Адреса Укрінформу: м. Київ, вул. Богдана Хмельницького, 8/16.
Використання будь-яких матеріалів з офіційного YouTube-каналу Укрінформ можливе лише за умови дотримання авторських прав, встановлених каналом. Під час демонстрації ролика в ході прямого ефіру необхідно послатися на автора — Укрінформ — показати його назву на екрані та вимовити її вголос.
Читайте Пресцентр Укрінформу в Telegram: https://t.me/presscenter_ukrinform?fbclid=IwAR0st84A_-gZzdo-Yej3lg_laJJuJ1ImX1BcnOYGJ4BVfV0io9vdlyfFP3w.
Підсумкові матеріали:
До ШІ потрібно встановлювати запобіжники там, де він несе серйозну загрозу приватності - аналітик
Штучний інтелект - це інструмент, і до нього треба поставитися як до будь-якого інструменту – тобто встановлювати запобіжники і вимоги там, де він несе серйозну загрозу приватності та безпеці людини.
Про це під час презентації в Укрінформі гайду для організацій громадянського суспільства про інструменти штучного інтелекту заявив заступник директорки Центру демократії та верховенства права (ЦЕДЕМ) Ігор Розкладай.
«ШІ – це інструмент, і я погоджуюся з тим, що до нього треба поставитися як до будь-якого інструменту – тобто, встановлювати запобіжники, встановлювати вимоги там, де він несе серйозну загрозу приватності, безпеці, по суті, життю людини. І точно не наділяти його функцією прийняття остаточного рішення», - сказав він.
Розкладай зазначив, що штучний інтелект може бути допоміжним інструментом - наприклад, виловлювати з мережі зображення злочинців, наприклад.
«Але не ШІ має прийняти рішення, що це злочинець і його треба пристрелити. Цей достатньо розумний збалансований підхід має дозволити нам нормально взаємодіяти з цим явищем. Його (штучний інтелект – ред.) точно не треба боятися і забороняти, але … над ним потрібно працювати і постійно проводити аналіз ризиків», - вважає аналітик.
Головна юридична радниця Європейського центру некомерційного права (ECNL) Фраческа Фануччі заявила, що залежно від мети і контексту застосування цієї технології можуть існувати різні рівні ризику для людей.
«Один із найперших ризиків – це помилково позитивні або негативні ідентифікації. Те, що називають «хибно позитивні». Ми завжди маємо пам’ятати, що алгоритм ніколи не повертає остаточний результат, а лише (показує – ред.) імовірності. Це означає, що коли велика кількість людей перевіряється масово – наприклад, на вулиці, площі, або там, де багато машин, - існує ризик помилкової ідентифікації», - розповіла юридична радниця ECNL.
За її словами, в Україні зараз діє воєнний стан, і для таких випадків існують міжнародні стандарти відступу від захисту певних прав людини.
«Ці відступи мають бути винятковими і тимчасовими і виправдовуватися виключно характером і невідкладністю ситуації. Тобто, наприклад, якщо ці камери (з функцією розпізнавання обличчя – ред.) встановили через війну, тоді їх треба прибрати після закінчення війни чи провести нову оцінку ризиків, для чого їх можна застосовувати», - вважає Фануччі.
Розкладай переконаний, що технології на кшталт цих камер мають дуже жорстко регулюватися.
«Так само як і медичні дані, біометричні дані – вони мають максимально жорстко обмежитися, максимальне має бути протоколювання. Має бути дуже обмежений термін зберігання цих відео і так далі, бо інакше це – шлях до Китаю, де кожен поліцейський, дивлячись на вас, вже знає про вас все», - заявив він.
Як повідомляв Укрінформ, компанія OpenAI скасувала заборону на використання штучного інтелекту для військових цілей.
У Києві презентували Гайд для громадських організацій про інструменти ШІ
В Україні розробили Гайд для організацій громадянського суспільства про інструменти штучного інтелекту, в якому окреслюються переваги та ризики використання ШІ для громадського сектору.
Його презентація відбулася в Укрінформі.
«ШІ – це реальність, яка настала, але чи готовий громадський сектор до цієї реальності і що потрібно робити організаціям громадянського суспільства із цими інструментами? Ми спробували детальніше це розкрити у самому гайді: що саме організації громадянського суспільства можуть робити з інструментами штучного інтелекту, як вони їх можуть застосовувати для власної роботи тощо», - зазначив менеджер проєктів Центру демократії та верховенства права (ЦЕДЕМ) Володимир Куделя.
За його словами, робота над гайдом тривала кілька місяців, він має понад 50 сторінок і 6 ключових розділів.
«Гайд побудовано за принципом кількох блоків. Перший – це блок про генеративний штучний інтелект, чим він є тощо. Другий присвячено практичним способам застосування цього генеративного штучного інтелекту у роботі ОГС. Після цього йде розділ про дипфейки і шеллоуфейки - які загрози вони становлять і як їх можна застосовувати у нейтральних цілях», - розповів Куделя.
Заключний блок, за словами менеджера проєктів ЦЕДЕМ, розповідає про технологію розпізнавання обличчя, ризики її застосування і ситуацію щодо регулювання її застосування в Україні і ЄС.
Юрист ЦЕДЕМ Ольга Петрів зазначила, що у гайді можна знайти інформацію про створення презентацій, чат-боти, створення діаграм тощо. Вона також зауважила, що потрібно цікавитися новинками у сфері штучного інтелекту, яких «щодня стає все більше і більше, а ті, хто в курсі цієї інформації, завжди будуть на крок попереду».
Гайд створено в межах проєкту «Ініціатива секторальної підтримки громадянського суспільства», що реалізується ІСАР Єднання у консорціумі з Українським незалежним центром політичних досліджень (УНЦПД) та Центром демократії та верховенства права завдяки підтримці американського народу, наданій через Агентство США з міжнародного розвитку.
Як повідомлялося, директор-розпорядник МВФ Крісталіна Георгієва вважає, що штучний інтелект може збільшити нерівність між країнами.
Відео:
Video:
Замовити фото натисніть тут - Фотобанк