Что нового
  • Что бы вступить в ряды "Принятый кодер" Вам нужно:
    Написать 10 полезных сообщений или тем и Получить 10 симпатий.
    Для того кто не хочет терять время,может пожертвовать средства для поддержки сервеса, и вступить в ряды VIP на месяц, дополнительная информация в лс.

  • Пользаватели которые будут спамить, уходят в бан без предупреждения. Спам сообщения определяется администрацией и модератором.

  • Гость, Что бы Вы хотели увидеть на нашем Форуме? Изложить свои идеи и пожелания по улучшению форума Вы можете поделиться с нами здесь. ----> Перейдите сюда
  • Все пользователи не прошедшие проверку электронной почты будут заблокированы. Все вопросы с разблокировкой обращайтесь по адресу электронной почте : info@guardianelinks.com . Не пришло сообщение о проверке или о сбросе также сообщите нам.

Команда Google Deepmind Провёла Исследование Агрессии Во Взаимоотношениях Между Несколькими Ии

Sascha

Заместитель Администратора
Команда форума
Администратор
Регистрация
9 Май 2015
Сообщения
1,064
Баллы
155
Возраст
47
В прошлом году знаменитый физик Стивен Хокинг

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

, что постоянное развитие искусственного интеллекта в конечном счете приведёт к «самому лучшему или самому худшему событию в жизни человечества».

Все мы видели фильм «Терминатор» и описанный в нём постапокалиптический кошмар, в котором осознавший себя ИИ Скайнет пытался уничтожить всё человечество. Недавнее исследование поведения нового ИИ от Google DeepMind показало, насколько осторожными стоит быть при разработке подобных технологий.

Прошлые версии ИИ от DeepMind продемонстрировали способность учиться независимо от своей собственной памяти. Это помогло машине

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

.

Теперь же исследователи решили протестировать его способность и желание сотрудничать с другими.

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

, что когда DeepMind приближается к поражению, он выбирает агрессивную стратегию, обеспечивая себе победу.

Чем объясняется агрессивное поведение ИИ?


Команда Google провела 40 миллионов партий в простую игру с собиранием фруктов, в которой два ИИ-агента должны соревноваться друг с другом в сборе виртуальных яблок. В начале игры все шло гладко, но когда количество яблок начало сокращаться, оба ИИ-агента начали использовать агрессивную тактику, используя лазерные лучи, чтобы вывести друг друга из игры и украсть все яблоки.

Вы можете посмотреть запись игры — игроки окрашены в синий и красный цвета, виртуальные яблоки — в зеленый, а лазерные лучи — в жёлтый:


Интересно то, что если один из агентов успешно поразит своего оппонента лазерным лучом, то он не получит дополнительные очки. Это попросту останавливает оппонента на некоторое время, что позволяет другому собрать больше яблок.

Если агенты не станут использовать лазерный луч, то теоретически они могут собрать равное количество яблок. Такое поведение более привычно для «менее разумной» версии DeepMind.


Данные исследования показали, что вероятность мирного сосуществования двух агентов уменьшалась с ростом сложности сети.

Могут ли ИИ работать вместе, а не уничтожать друг друга?


Исследования показали, что могут, лишь в случае обоюдной выгоды.

Во второй игре, Wolfpack, два ИИ-агента играли в качестве волков, а третий был добычей. В этой игре от агентов требовалось скооперироваться с друг другом, чтобы получить больше очков:


Если в первой игре ИИ-агенты выбирали всё более агрессивную стратегию, то во второй агенты начинали всё больше и больше сотрудничать, дожидаясь друг друга возле добычи.

Данный эксперимент показал то, что в будущем, когда наша жизнь частично или полностью будет зависеть от устройств с ИИ, они будут сотрудничать между собой и с нами в том случае, если это будет выгодно для них. Как это похоже на людей, не находите?

Запись

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

впервые появилась

Пожалуйста Авторизируйтесь или Зарегистрируйтесь для просмотра скрытого текста.

.
 
Вверх