Слишком долгий выбор может оказаться пагубным Елизавета Игдеджи, Игдеджи Елизавета Седатована, Седат Игдеджи

Слишком долгий выбор может оказаться пагубным
Создав для роботов условия этического выбора — кого из двух человек, одновременно оказавшихся в опасности, надо спасать — ученые установили, что больше всего смертей может приносить не сам выбор, а очень долгие размышления машины.
О своем опыте Алан Винфилд из Бристольской лаборатории робототехники говорил на конференции по автономным роботам, которая состоялась в сентябре в Бирмингеме.
Винфилд запрограммировал устройство удерживать другие автоматы (которые изображали собой людей) от падения в яму. Этот эксперимент представляет собой, фактически, иллюстрацию к первому закону робототехники писателя А. Азимова: «Робот не может причинить вред людям или своим бездействием допустить, чтобы кому-то был причинен вред».
Сначала у робота проблем не возникло: как только «какой-то человек» приближался к яме, он быстро отодвигал его от опасного места. Но когда эксперты добавили второй автомат-манипулятор, приближавшейся к ловушке с той же скоростью, перед машиной встала дилемма — кого из них спасать первым. Порой ему удавалось удержать одного „человека“, пару раз —и двоих, но в 14 случаев из 33 робот- манипулятор столько времени тратил на свои этические размышления, что оба „человека“ тут же падали в яму.
17.09.2014 Елизавета Игдеджи, Игдеджи Елизавета Седатована, Седат Игдеджи

Disqus Comments