Новий інструмент Ради Європи надає вказівки та структурований підхід для проведення оцінки ризиків і впливу для систем штучного інтелекту (AI). Методологія HUDERIA спеціально розроблена для захисту та просування прав людини, демократії та верховенства права . Його можуть використовувати як державні, так і приватні суб’єкти для виявлення та усунення ризиків і впливу на права людини, демократію та верховенство права протягом усього життєвого циклу систем ШІ.
Методологія передбачає створення плану зменшення ризиків для мінімізації або усунення виявлених ризиків, захисту населення від потенційної шкоди. Наприклад, якщо система штучного інтелекту, яка використовується під час прийому на роботу, виявляється упередженою щодо певних демографічних груп, план пом’якшення наслідків може передбачати коригування алгоритму або впровадження людського нагляду.
Методологія вимагає регулярних повторних оцінок, щоб переконатися, що система штучного інтелекту продовжує працювати безпечно та етично в міру розвитку контексту та технологій. Цей підхід гарантує, що громадськість захищена від нових ризиків протягом усього життєвого циклу системи ШІ.
Методологія HUDERIA була прийнята Комітетом зі штучного інтелекту ( CAI ) Ради Європи на його 12-му пленарному засіданні, яке відбулося в Страсбурзі 26-28 листопада. У 2025 році вона буде доповнена моделлю HUDERIA, яка надаватиме допоміжні матеріали та ресурси, включаючи гнучкі інструменти та масштабовані рекомендації.