Что нового
  • Что бы вступить в ряды "Принятый кодер" Вам нужно:
    Написать 10 полезных сообщений или тем и Получить 10 симпатий.
    Для того кто не хочет терять время,может пожертвовать средства для поддержки сервеса, и вступить в ряды VIP на месяц, дополнительная информация в лс.

  • Пользаватели которые будут спамить, уходят в бан без предупреждения. Спам сообщения определяется администрацией и модератором.

  • Гость, Что бы Вы хотели увидеть на нашем Форуме? Изложить свои идеи и пожелания по улучшению форума Вы можете поделиться с нами здесь. ----> Перейдите сюда
  • Все пользователи не прошедшие проверку электронной почты будут заблокированы. Все вопросы с разблокировкой обращайтесь по адресу электронной почте : info@guardianelinks.com . Не пришло сообщение о проверке или о сбросе также сообщите нам.

Илон Маск, Стивен Хокинг И Сотни Других Экспертов Подписали Список Из 23 Принципов Развития Ии

Sascha

Заместитель Администратора
Команда форума
Администратор
Регистрация
9 Май 2015
Сообщения
1,071
Баллы
155
Возраст
51
Искусственный интеллект — это удивительная технология, которая изменяет мир, но каждый, кто смотрел фильм «Терминатор», знает, что продвинутый ИИ может быть опасен. Именно поэтому Илон Маск, Стивен Хокинг и сотни других исследователей и IT-экспертов

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

список из 23 основных принципов, которых стоит придерживаться при разработке ИИ, дабы она продвигалась в безопасном, продуктивном и нравственном направлении.

Данный список был составлен на конференции

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

. Эксперты в области робототехники, физики, экономики, философии и т.д. горячо обсуждали безопасность ИИ, экономическое влияние технологии на занятость людей и многие другие темы. Для включения каждого пункта в список нужно было получить согласие 90% участников.

В результате участники составили и подписали

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

, которые затрагивают темы от исследований данных до развития суперразума. Всего список подписали почти 1000 исследователей в области ИИ и робототехники и около 1500 экспертов в других сферах, включая CEO Tesla Илона Маска и знаменитого физика Стивена Хокинга.

Некоторые принципы — например, прозрачность и общий доступ всех компаний к исследованиям — будут соблюдены с меньшей вероятностью, но если мы будем придерживаться хотя бы части из них, то разработка ИИ вряд ли приведёт к восстанию Skynet.

Ниже вы можете ознакомиться с переведённым списком (который, к слову, называется Asilomar AI Principles):

Научно-исследовательские вопросы


1. Целью исследований в области искусственного интеллекта должно быть создание не бесконтрольного разума, а выгодного для всего общества инструмента.

2. Инвестиции в ИИ должны производиться совместно с финансированием исследований по обеспечению полезности использования технологии, что позволит давать более точные и обобщенные ответы на возникающие вопросы в области информатики, экономики, права, этики и обществоведения, в частности:

  • Как обеспечить высокую надежность систем ИИ, чтобы они выполняли поставленные задачи без сбоев и угрозы быть взломанными?
  • Каким образом при помощи автоматизации мы можем прийти к необходимой цели, поддерживая человеческие ресурсы и заинтересованность?
  • Как грамотно обновить правовую систему, обеспечив справедливость по современным канонам и учтя появление ИИ?
  • Какой правовой и этический статус получит ИИ?

3. Обеспечение конструктивного и равного взаимодействия исследователей и политиков.

4. В обществе исследователей должна соблюдаться полная открытость и прозрачность.

5. Исследователи ИИ должны всячески сотрудничать между собой во избежание нарушения стандартов безопасности.

Нравственные вопросы


6. Системы искусственного интеллекта должны быть безопасными и надежными на протяжении всего эксплуатационного срока.


7. Если система ИИ причинит вред, должна быть возможность выяснения причины.

8. Любое вмешательство автономной системы в судебные решения должно быть санкционированным и подлежать отчетности в случае проверки специалистами.

9. Ответственность за причинённый вред, намеренное создание опасной ситуации, вызванное ошибкой конструкции или программного обеспечения ляжет на плечи разработчиков и инженеров.

10. Все автономные системы ИИ должны быть спроектированы таким образом, чтобы их цели и поведение не противоречили общечеловеческим ценностям.

11. ИИ должен быть спроектирован и использован так, чтобы быть совместимым с идеалами человеческих достоинства, прав, свобод и культурного разнообразия.

12. Данные, возникшие в процессе использования ИИ человеком, должны быть доступны в дальнейшем для этого человека.

13. При работе с персональными данными ИИ не должен необоснованно ограничивать реальные или мнимые свободы людей.

14. Технологии ИИ должны приносить пользу и быть доступными как можно большему количеству людей.

15. Экономические ценности, созданные ИИ, должны быть доступны всему человечеству.

16. Человек всегда должен иметь выбор: принять решение самостоятельно или поручить это ИИ.

17. Действия ИИ должны идти на пользу человеческой деятельности, а не во вред.

18. Необходимо всеми силами избегать гонки автономных видов вооружений.

Долгосрочные вопросы


19. Мы должны абсолютно трезво оценивать предел возможностей ИИ во избежание нерациональных затрат ресурсов.

20. Развитие ИИ будет интенсивным, поэтому технология должна быть под контролем, дабы не вызвать необратимых реакций.

21. Риски, особенно крупномасштабные, должны быть спланированы таким образом, чтобы обеспечивать минимизацию возможного ущерба.

22. Системы ИИ, способные к саморазвитию и самовоспроизведению, должны находиться под особо строгим контролем.

23. Суперразум должен будет служить всему человечеству, а не конкретной частной организации или государству.

Запись

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

впервые появилась

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

.
 
Вверх