5 вещей, которые юристы должны знать об искусственном интеллекте

0
206

Хотя искусственный интеллект был предметом академических исследований с 1950-х годов и используется в коммерческих целях в некоторых отраслях в течение десятилетий, он все еще находится в зачаточном состоянии в большей части экономики.

Быстрое внедрение этой технологии, наряду с уникальными вопросами конфиденциальности, безопасности и ответственности, связанными с ней, создало возможности для юристов помочь своим клиентам осознать ее экономическую ценность, гарантируя при этом, что ее использование будет этическим и законным.

Однако, прежде чем консультировать клиентов по вопросам ИИ, юристы должны обладать некоторыми базовыми техническими знаниями, чтобы ответить на вопросы о соблюдении законодательства.

1. ИИ вероятностный, сложный и динамичный

Алгоритмы машинного обучения невероятно сложны, изучая миллиарды правил из наборов данных и применяя эти правила для получения рекомендации по итогу. Даже самые точные и хорошо продуманные системы искусственного интеллекта носят вероятностный характер, гарантируя, что система в какой-то момент даст неправильный результат.

Кроме того, большинство систем обучаются использованию данных взятых в определенный момент, поэтому, когда события в мире отходят от закономерностей в ранее полученных данных (как в случае с пандемией COVID-19), система, вероятно, будет ошибаться чаще, требуя большего юридического и технического внимания.

2. Сделайте прозрачность практическим приоритетом

Сложность систем искусственного интеллекта затрудняет обеспечение прозрачности, но организации, развертывающие ИИ, могут нести ответственность, если они не смогут предоставить определенную информацию о своем процессе принятия решений.

Одним из лучших способов повышения прозрачности в ИИ является разработка внутренней политики, которая внедряет лучшие практики в документации систем ИИ. Стандартизированная документация систем искусственного интеллекта с акцентом на процессы организационного развития, измерения и тестирования имеет решающее значение для обеспечения постоянного и эффективного управления системами ИИ. Адвокаты могут помочь, создавая шаблоны для такой документации, принимая во внимание любые внешние требования соответствия, основанные на применимом законодательстве, и гарантируя, что документированные процессы разработки последовательны и завершены.

3. Предвзятость — это серьезная проблема, но не единственная проблема

Системы искусственного интеллекта учатся, анализируя миллиарды данных, собранных из реального мира. Эти данные могут быть числовыми, такими как суммы кредитов или показатели удержания клиентов; категорическими, такими как пол и образовательный уровень; или на основе изображений, такими как фотографии и видео. Поскольку большинство систем обучены данным, генерируемым существующими человеческими системами, предубеждения, которые пронизывают нашу культуру, также пронизывают данные.

Непредвзятой системы искусственного интеллекта быть не может быть. Если организация разрабатывает или использует системы искусственного интеллекта для принятия решений, которые потенциально могут быть дискриминационными по закону, адвокаты должны участвовать в процессе разработки вместе с специалистами по анализу данных.

Но какими бы реальными и важными ни были эти проблемы, широкое внимание к предвзятости может привести к упущению внимания к другим не менее важным видам риска. Конфиденциальность данных, информационная безопасность, ответственность за продукт и обмен с третьими лицами, а также уже упомянутые проблемы производительности и прозрачности столь же важны. Многие организации работают с системами искусственного интеллекта, не в достаточной степени решают каждую из этих дополнительных проблем. Сначала ищите проблемы с предвзятостью, но не выходите под угрозу проблемы конфиденциальности и безопасности или недобросовестного стороннего партнера.

4. Производительность системы искусственного интеллекта — это больше, чем точность

Хотя качество и ценность системы искусственного интеллекта в значительной степени определяются ее точностью, одного этого недостаточно для полного измерения широкого спектра рисков, связанных с технологией. Нынешняя концепция точности часто ограничивается выходами только в лабораторных и тестовых настройках, что не всегда приводит к реальным результатам. Но даже в этом случае чрезмерное сосредоточение внимания только на точности, вероятно, игнорирует прозрачность, справедливость, конфиденциальность и безопасность системы. Каждый из этих факторов одинаково важен для воздействия системы искусственного интеллекта, независимо от того, питает ли она другие системы или подключается непосредственно к клиентам.

Адвокаты и специалисты по анализу данных должны работать вместе, чтобы создать более надежные способы проверки производительности ИИ, которые сосредоточены на полном спектре реальной производительности и потенциальном вреде, будь то в результате угроз безопасности или нехватки конфиденциальности. Хотя производительность и законность ИИ не всегда будут одинаковыми, обе профессии могут пересмотреть текущее мышление, чтобы представить себе измерения сверх высоких баллов для точности эталонных наборов данных.

5. Тяжелая работа только начинается

Большинство организаций, использующих технологию искусственного интеллекта, вероятно, нуждаются в шаблонах документации, политике, регулирующей разработку и использование технологии, а также руководстве по обеспечению соответствия систем искусственного интеллекта нормативным требованиям.

Некоторые исследователи, практики, журналисты, активисты и адвокаты начали эту работу по снижению рисков и обязательств, связанных с современными системами искусственного интеллекта. Предприятия начинают определять и внедрять принципы ИИ и предпринимать серьезные попытки разнообразия и инклюзивности для технологических команд. Предлагаемое регулирование ИИ ЕС и другие акты формируют правовую основу для регулирования ИИ, даже несмотря на то, что другие  рамки снижения рисков колебаются, а регулирующие органы продолжают чрезмерно полагаться на общие антимонопольные и несправедливые и обманчивые стандарты практики.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь