IBM и Microsoft подписали «этическое решение» с Ватиканом
Технические гиганты обещают разрабатывать новые технологии таким образом, чтобы защитить права всех людей.
В документе «Римский призыв к этике искусственного интеллекта» содержится призыв к искусственному интеллекту для защиты прав всего человечества и к новым правилам в таких областях, как распознавание лиц.
IBM и Microsoft подписали «этическое решение» с Ватиканом, чтобы развивать искусственный интеллект таким образом, чтобы защитить планету и права всех людей.
Обещание под названием «Римский призыв к этике ИИ» будет вручено в пятницу утром папе Франциску, президенту Microsoft Брэду Смиту и исполнительному вице-президенту IBM Джону Келли, а также должностным лицам Ватикана и Цю Дуню, китайскому генеральному директору Продовольственной и сельскохозяйственной организации ООН.
Две американские технологические компании занимают лидирующие позиции в мире по разработке ИИ, судя по количеству полученных патентов.
В документе содержится призыв к ИИ защищать права всего человечества, особенно слабых и обездоленных, и вводить новые правила в таких областях, как распознавание лиц. Он сказал, что должна быть «обязанность объяснения», которая показала бы не только то, как алгоритмы ИИ приходят к своим решениям, но также какова их цель и задачи.
Г-н Смит сказал, что ИИ «должен руководствоваться строгими этическими принципами, основанными на мировых традициях в области прав человека».
Франческа Росси (Francesca Rossi), глобальный лидер IBM по этике искусственного интеллекта, сказала: «Ватикан является экспертом не в технологии, а в ценностях. Сотрудничество призвано помочь Ватикану и всему обществу понять, как использовать эту технологию с этими ценностями».
Римская газета вышла вскоре после того, как Европейская комиссия опубликовала свое видение того, как регулировать ИИ, чтобы он использовался этически.
Планы были сфокусированы на приложениях ИИ высокого риска и вводили строгую оценку, прежде чем их разрешат использовать в ЕС. Г-жа Росси, которая консультировала ЕС по стратегии ИИ, защищала свой осторожный подход к приложениям с высокой степенью риска.
Она сказала, что подход, основанный на оценке риска, - лучший способ взглянуть на приложения искусственного интеллекта, чтобы избежать общего и обременительного регулирования.
«Чего хотят (критики) взамен? Подход, основанный на оценке риска, является лучшим. Альтернатива заключается в том, что регулирование носит очень общий характер - для всех типов ИИ.
«У ИИ много нюансов, некоторые очень рискованны, а некоторые нет», - добавила она. «Было бы неразумно накладывать бремя на приложения, которые могут быть очень полезными, но очень важно убедиться, что регулирование выполняется правильно для приложений с высоким риском».