
10.03.2021, 15:32 0 0 Фото: depositphotos.com
Исследователи Массачусетского технологического института разработали метод, который учит системы искусственного ума относиться к вводным данным скептически, докладывает веб-сайт института.
Чтоб сделать ИИ устойчивым к противоречащим данным, исследователи попробовали ввести защиту для контролируемого обучения, объединив метод обучения данными с глубочайшей нейронной сетью, которая употребляется, к примеру, для обучения машинки игре в Го либо шахматы.
Обычно нейронную сеть учат связывать определенные понятия с данными входными данными. К примеру, если скормить нейронной сети тыщи изображений с метками «кошка», то совместно с изображениями с метками «дом» и «хот-дог», машинка с легкостью сумеет найти кошку, попадая на изображение с соответственной меткой.
Подписывайтесь на LIGA.Tech в Facebook: главные анонсы о разработках
Но, таковой метод достаточно трудозатратный и занимает много времени, потому исследователям необходимо было отыскать метод, как вынудить ИИ принимать решения в режиме настоящего времени, основываясь на наихудших догадках.
Потому команда решила опираться на форму машинного обучения, которая не просит связывания помеченных входных данных с выходными, а быстрее ориентирована на усиление определенных действий в ответ на входные данные. Иными словами, ученые выдумали, как вынудить машинку рассматривать свои правильные и некорректные ответы.
Для теста они употребляли простейшую видеоигру пинг-понг, в какой два игрока управляют ракетками по обе стороны экрана, чтоб отбивать мяч на сторону противника. Но изучили сделали маленькую корректировку, сместив мяч на несколько пикселей, от настоящей линии движения, а машинка обязана была осознать, когда мяч двигается верно, а когда ее пробуют одурачить
Новейший метод совладал с задачей существенно лучше собственных предшественников, отмечают ученые.
- Ранее ученые сделали ИИ, преобразовывающий фото человека в близкий к реальности 3D-персонаж.
Подписывайтесь на LIGA.Tech в Telegram: лишь принципиальное