IBM и Microsoft подписали «этическое решение» с Ватиканом

 

Технические гиганты обещают разрабатывать новые технологии таким образом, чтобы защитить права всех людей.

В документе «Римский призыв к этике искусственного интеллекта» содержится призыв к искусственному интеллекту для защиты прав всего человечества и к новым правилам в таких областях, как распознавание лиц.

IBM и Microsoft подписали «этическое решение» с Ватиканом, чтобы развивать искусственный интеллект таким образом, чтобы защитить планету и права всех людей.

Обещание под названием «Римский призыв к этике ИИ» будет вручено в пятницу утром папе Франциску, президенту Microsoft Брэду Смиту и исполнительному вице-президенту IBM Джону Келли, а также должностным лицам Ватикана и Цю Дуню, китайскому генеральному директору Продовольственной и сельскохозяйственной организации ООН.

Две американские технологические компании занимают лидирующие позиции в мире по разработке ИИ, судя по количеству полученных патентов.

В документе содержится призыв к ИИ защищать права всего человечества, особенно слабых и обездоленных, и вводить новые правила в таких областях, как распознавание лиц. Он сказал, что должна быть «обязанность объяснения», которая показала бы не только то, как алгоритмы ИИ приходят к своим решениям, но также какова их цель и задачи.

Г-н Смит сказал, что ИИ «должен руководствоваться строгими этическими принципами, основанными на мировых традициях в области прав человека».

Франческа Росси (Francesca Rossi), глобальный лидер IBM по этике искусственного интеллекта, сказала: «Ватикан является экспертом не в технологии, а в ценностях. Сотрудничество призвано помочь Ватикану и всему обществу понять, как использовать эту технологию с этими ценностями».

Римская газета вышла вскоре после того, как Европейская комиссия опубликовала свое видение того, как регулировать ИИ, чтобы он использовался этически.

Планы были сфокусированы на приложениях ИИ высокого риска и вводили строгую оценку, прежде чем их разрешат использовать в ЕС. Г-жа Росси, которая консультировала ЕС по стратегии ИИ, защищала свой осторожный подход к приложениям с высокой степенью риска.

Она сказала, что подход, основанный на оценке риска, - лучший способ взглянуть на приложения искусственного интеллекта, чтобы избежать общего и обременительного регулирования.

«Чего хотят (критики) взамен? Подход, основанный на оценке риска, является лучшим. Альтернатива заключается в том, что регулирование носит очень общий характер - для всех типов ИИ.

«У ИИ много нюансов, некоторые очень рискованны, а некоторые нет», - добавила она. «Было бы неразумно накладывать бремя на приложения, которые могут быть очень полезными, но очень важно убедиться, что регулирование выполняется правильно для приложений с высоким риском».