16 вопросов, которыми редко задаются разработчики искусственного интеллекта

Россия+7 (910) 990-43-11
Обновлено: 2024-08-10

Правила – алгоритмы – по которым живут и когда-либо жили каждая культура, общество и нация, всегда создавались всего несколькими людьми. Демократия, коммунизм, социализм, религия, веганство, нативизм, колониализм – это те конструкции, которые мы разрабатывали на протяжении всей истории, чтобы помочь в принятии наших решений. Даже в самых лучших случаях они не ориентированы на будущее. Технологические, социальные и экономические силы всегда вмешиваются и заставляют нас адаптироваться.

Сложности управления искусственным интеллектом

Десять заповедей составляют алгоритм, предназначенный для создания лучшего общества людей, живших более 5000 лет назад. Одна из заповедей – иметь минимум один полный день в неделю для отдыха всех людей. В наше время большинство людей не работает в одни и те же дни или часы из недели в неделю, поэтому было бы невозможно не нарушать это правило. В результате люди, которые следуют Десяти Заповедям как руководящим принципом, проявляют очень большую гибкость в их интерпретации, учитывая реалии более длинных рабочих дней и информатизации.

Адаптация хороша – она работает очень хорошо для нас и нашего общества, что позволяет нам оставаться на правильном пути. Согласование базового набора руководящих принципов позволяет нам оптимизировать его под себя.

Однако, нет никакого способа создать набор заповедей для ИИ. Мы не можем написать все правила для правильной оптимизации в соответствии с потребностями человечества, и это потому, что хотя мыслящие машины могут быть быстрыми и мощными, им не хватает гибкости.

Нет простого способа симулировать исключения или попытаться заранее продумать каждую непредвиденную ситуацию. Независимо от того, какие правила будут написаны, в будущем всегда будут возникать обстоятельства, при которых люди могут по-разному истолковать правила или полностью их игнорировать, или внести поправки, чтобы справиться с непредвиденными обстоятельствами.

Зная, что мы не можем написать ряд строгих заповедей, которым должен следовать искусственный интеллект, должны ли мы вместо этого сосредоточить своё внимание на людях, разрабатывающих такие системы?

Эти люди – разработчики ИИ – должны задавать себе неудобные вопросы, начиная с:

  1. Какова «мотивация» ИИ? Соответствует ли она долгосрочным интересам человечества?
  2. Каковы наши собственные убеждения? Какие идеи, опыт и ценности мы не смогли включить в искусственный интеллект?
  3. Включили ли мы идеи людей, отличных от нас, чтобы улучшить будущее ИИ, или мы просто разнообразили команду разработчиков, чтобы выполнить определенные квоты?
  4. Как мы можем гарантировать, что наше поведение является инклюзивным?
  5. Как технические, экономические и социальные последствия создания ИИ понимаются теми, кто участвует в его разработке?
  6. Какие основные права мы должны иметь для сбора данных, запуска алгоритмов и процессов, используемых для принятия решений от нашего имени?
  7. Кто может определить ценность человеческой жизни? Относительного чего определяется это значение?
  8. Когда и почему разработчики обязаны решать социальные проблемы ИИ?
  9. Отражает ли организация и разработчики ИИ всё многообразие людей?
  10. Какую роль играет коммерциализация ИИ в решении социальных последствий?
  11. Должны ли мы продолжать сравнивать ИИ с человеческим мышлением, или лучше классифицировать его как нечто иное?
  12. Можно ли создавать ИИ, который распознает человеческие эмоции и реагирует на них?
  13. Можно ли создавать системы ИИ способными имитировать человеческие эмоции, особенно если они учатся у нас в режиме реального времени?
  14. Какова приемлемая точка, за которой ИИ может эволюционировать без людей?
  15. При каких обстоятельствах ИИ может моделировать и испытывать общие человеческие эмоции? А как насчет боли, потери и одиночества?
  16. Мы развиваем ИИ, чтобы найти более глубокое понимание себя? Можем ли мы использовать ИИ, чтобы помочь человечеству жить более осознанной жизнью?

Девять крупных технологических компаний несут огромную ответственность за будущее искусственного интеллекта. В США это Google, Microsoft, Amazon, Facebook, IBM и Apple («G-MAFIA»). В Китае это Baidu, Alibaba и Tencent.

G-MAFIA начала решать проблему руководящих принципов с помощью различных исследовательских групп. В Microsoft работает команда FATE – от Fairness, Accountability, Transparency и Ethics (справедливость, ответственность, прозрачность и этика). После скандала с Cambridge Analytica Facebook запустил команду по этике, которая занимается разработкой программного обеспечения, чтобы убедиться, что его системы ИИ избегают предвзятости. DeepMind создал команду по этике и обществу. IBM регулярно публикует информацию об этике искусственного интеллекта. После скандала в Baidu генеральный директор Робин Ли признал, что сотрудники пошли на компромисс ради роста доходов Baidu и пообещал в сосредоточиться на этике в будущем.

«Большая девятка» выпускает этические исследования и официальные документы, собирает экспертов для обсуждения этики и организует группы по этике, но эти усилия недостаточно взаимосвязаны с повседневной работой различных команд, работающих над ИИ.

Системы искусственного интеллекта «Big Nine» всё чаще используют наши реальные данные для создания продуктов, которые имеют коммерческую ценность. Циклы разработки ускоряются, чтобы идти в ногу с ожиданиями инвесторов. Мы вольно-невольно участвуем в создании будущего, которое создается спешно и без предварительного ответа на все приведенные вопросы. По мере развития систем ИИ и большей автоматизации повседневной жизни, у нас будет всё меньше контроля над решениями, которые принимаются за нас и «для нас».


5.0/2