Більшість основних програм штучного інтелекту (ШІ) використовують його здатність обробляти великі обсяги даних, виявляючи закономірності та тенденції всередині. Результати можуть допомогти передбачити майбутню поведінку фінансових ринків і міського трафіку, і навіть допомогти лікарям діагностувати захворювання до появи симптомів.
Але штучний інтелект також можна використовувати для порушення конфіденційності наших онлайн-даних, автоматизації роботи людей і підриву демократичних виборів шляхом заповнення соціальних мереж дезінформацією. Алгоритми можуть успадковувати упередження від даних реального світу, які використовуються для їх покращення, що може спричинити, наприклад, дискримінацію під час найму.
Регулювання штучного інтелекту – це комплексний набір правил, що визначають, як слід розробляти та використовувати цю технологію для усунення потенційної шкоди. Ось деякі з основних зусиль для цього та чим вони відрізняються.
Акт ЄС щодо штучного інтелекту та Декларація Блетчлі
Закон Європейської комісії про штучний інтелект спрямований на пом’якшення потенційних небезпек, водночас заохочуючи підприємливість та інновації у сфері штучного інтелекту. Інститут безпеки штучного інтелекту Великобританії, оголошений на нещодавньому урядовому саміті в Блетчлі-парку, також прагне знайти цей баланс.
Акт ЄС забороняє інструменти штучного інтелекту, які вважаються несуть неприйнятні ризики. Ця категорія включає продукти для «соціального оцінювання», де людей класифікують на основі їхньої поведінки, і розпізнавання облич у реальному часі.
Закон також суттєво обмежує ШІ високого ризику, наступну категорію нижче. Ця позначка охоплює програми, які можуть негативно вплинути на фундаментальні права, зокрема безпеку.
Приклади включають автономне водіння та системи рекомендацій ШІ, які використовуються в процесах найму, правоохоронних органах і освіті. Багато з цих інструментів потрібно буде зареєструвати в базі даних ЄС. Категорія обмеженого ризику охоплює чат-боти, такі як ChatGPT, або генератори зображень, такі як Dall-E.
Загалом розробникам штучного інтелекту доведеться гарантувати конфіденційність усіх особистих даних, які використовуються для «навчання» — або вдосконалення — їхніх алгоритмів, і бути прозорими щодо роботи їхніх технологій. Однак одним із ключових недоліків закону є те, що він був розроблений переважно технократами без широкого залучення громадськості.
На відміну від Закону про штучний інтелект, нещодавня Декларація Блетчлі не є нормативною базою як такою, а закликом до її розробки шляхом міжнародної співпраці. Саміт з безпеки штучного інтелекту 2023 року, на якому була прийнята декларація, був визнаний дипломатичним проривом, оскільки він змусив світові політичні, комерційні та наукові спільноти погодити спільний план, який повторює акт ЄС.
США і Китай
Компанії з Північної Америки (особливо США) і Китаю домінують у комерційному ландшафті ШІ. Більшість їхніх європейських головних офісів знаходяться у Великобританії. США та Китай змагаються за місце на регулятивній арені. Президент США Джо Байден нещодавно видав указ, який вимагає від виробників штучного інтелекту надати федеральному уряду оцінку вразливості їхніх додатків до кібератак, дані, які використовуються для навчання та тестування штучного інтелекту, а також вимірювання його продуктивності.
Виконавчий наказ США створює стимули для сприяння інноваціям і конкуренції шляхом залучення міжнародних талантів. Він передбачає створення освітніх програм для розвитку навичок штучного інтелекту серед робочої сили США. Він також виділяє державне фінансування для партнерства між урядом і приватними компаніями.
Такі ризики, як дискримінація, спричинена використанням штучного інтелекту при прийомі на роботу, заявках на іпотеку та винесенні судових вироків, вирішуються шляхом вимоги до глав виконавчих департаментів США публікувати вказівки. Це визначило б, як федеральні органи влади повинні контролювати використання штучного інтелекту в цих сферах.
Китайські правила штучного інтелекту демонструють значний інтерес до генеративного штучного інтелекту та захисту від глибоких фейків (синтетично створених зображень і відео, які імітують зовнішній вигляд і голос реальних людей, але передають події, яких ніколи не було).
Також велика увага приділяється регулюванню систем рекомендацій ШІ. Це стосується алгоритмів, які аналізують онлайн-активність людей, щоб визначити, який вміст, зокрема рекламу, розмістити у верхній частині їхніх стрічок.
Щоб захистити громадськість від рекомендацій, які вважаються необґрунтованими або емоційно шкідливими, китайське законодавство забороняє фейкові новини та не дозволяє компаніям застосовувати динамічне ціноутворення (встановлення вищих премій за основні послуги на основі видобутку особистих даних). Вони також вимагають, щоб усе автоматизоване прийняття рішень було прозорим для тих, на кого воно впливає.
Шлях вперед
Зусилля щодо регулювання залежать від національних умов, таких як занепокоєність США щодо кіберзахисту, посилення Китаєм приватного сектору та спроби ЄС і Великобританії збалансувати підтримку інновацій із пом’якшенням ризиків. У своїх спробах просувати етичний, безпечний і надійний ШІ світові фреймворки стикаються з подібними проблемами.
Деякі визначення ключової термінології є нечіткими та відображають внесок невеликої групи впливових зацікавлених сторін. Широка громадськість була недостатньо представлена в цьому процесі. Політики повинні бути обережними щодо значного політичного капіталу технологічних компаній. Життєво важливо залучати їх до регулятивних дискусій, але було б наївно довіряти цим потужним лобістам самоконтроль.
ШІ прокладає собі шлях до тканини економіки, інформуючи про фінансові інвестиції, підтримуючи національну охорону здоров’я та соціальні послуги та впливаючи на наші уподобання щодо розваг. Тож той, хто встановлює домінуючу нормативну базу, також має можливість змінити глобальний баланс сил.
Важливі питання залишаються невирішеними. Наприклад, у випадку автоматизації робочих місць загальноприйнято вважати, що цифрове учнівство та інші форми перепідготовки перетворять робочу силу на науковців із обробки даних та програмістів ШІ. Але багато висококваліфікованих людей можуть бути не зацікавлені в розробці програмного забезпечення.
Оскільки світ долає ризики та можливості, пов’язані зі штучним інтелектом, ми можемо зробити позитивні кроки, щоб забезпечити відповідальний розвиток і використання цієї технології. Щоб підтримати інновації, нещодавно розроблені системи штучного інтелекту можуть спочатку входити до категорії високого ризику, як це визначено Законом ЄС про штучний інтелект, і бути пониженими до категорій меншого ризику, коли ми досліджуватимемо їхній вплив.
Політики також могли б повчитися на прикладах суворо регульованих галузей, таких як виробництво ліків і атомна промисловість. Вони не є прямими аналогами штучного інтелекту, але багато стандартів якості та операційних процедур, що регулюють ці критично важливі для безпеки сфери економіки, можуть запропонувати корисну інформацію.
Нарешті, співпраця між усіма, хто постраждав від ШІ, є важливою. Формування правил не слід залишати лише технократам. Широка громадськість потребує голосу щодо технології, яка може мати глибокий вплив на її особисте та професійне життя. Джерело