Роботы должны знать, почему они делают работу, если они хотят эффективно и безопасно работать рядом с людьми в ближайшем будущем. В простых терминах, это означает, что машины должны понимать motivethe как люди, а не только слепо выполнять задачи, без контекста.

Согласно новой статье Национальный центр ядерных робототехнике, базирующейся в Университете Бирмингема, это может предвещать большие перемены для мира робототехники, но одно то, что надо.

Ведущий автор исследования доктор Валерио Ortenzi, в Университете Бирмингема утверждает, что сдвиг в мышлении надо будет как переходной объятия автоматизации, связи и оцифровки («Индустрия 4.0») и уровней взаимодействия человека-робота, то ли на заводах или дома, резко возрастет.

В статье, опубликованной в природе машинного интеллекта, исследует проблему роботов с использованием объектов. ‘Хватание’ это действие давно доведено до совершенства в природе, но тот, который представляет передовые исследования робототехники.

Большинство заводской машины ‘стремно’, вслепую подбирая знакомые предметы, которые появляются в заранее определенные места в нужное время. Покупать машину, чтобы забрать незнакомые предметы,случайным образом представлены, требует беспрепятственного взаимодействия нескольких сложных технологий. Они включают системы видения и продвинутый AI, так что машина может видеть цель и определить его свойства (например, жесткий или гибкий?); и, возможно, датчики в распорном необходимы, чтобы робот случайно не раздавить объект было сказано, чтобы забрать.

Даже когда все это выполнено, исследователи в Национальном центре ядерных робототехники выделяется фундаментальный вопрос: что традиционно считается «успешным» возьмитесь за робота, на самом деле может быть реальной сбой, потому что машина не учитывает, что цель и whyit выбирает объект вверх.

В природе машинного интеллекта документе приводится пример робота на фабрике, подбирая объект для доставки клиенту. Он успешно выполняет задачу, держа пакет безопасно, не причинив ущерба. К сожалению, робота захват затушевывает решающую штрих-код, который означает, что объект не может быть отслежены и фирма не имеет понятия, если элемент был подобран или нет; в целом система ломается, потому что робот не знал последствий, держа в поле в ту сторону.

Доктор Ortenzi и его соавторы дают другие примеры, с участием роботов, работающих вместе людей.

«Представьте себе, задавая роботу пройти вам отвертка в мастерской. Исходя из нынешних конвенций, лучший способ для робота возьмите инструмент за ручку. К сожалению, это может означать, что тогда чрезвычайно мощная машина всаживает потенциально смертельное лезвие по отношению к вам, на скорости. Вместо этого, робот должен знать, что конечная цель, т. е. перейти отвертку смело к своей коллеге, для того, чтобы переосмыслить свои действия.

«Другой сценарий предусматривает робот проезжает стакан воды житель дома опеки. Это должно гарантировать, что не опускается стекло, а также о том, что вода не перетечет получатель в акт передачи, или что стекло представлен таким образом, что человек может взять.

«То, что очевидно для человека должно быть запрограммировано в машине, и это требует принципиально иного подхода. Традиционные показатели, используемые исследователей, за последние двадцать лет, чтобы оценить манипуляции робота, недостаточно. В наиболее практическом смысле, роботы нуждаются в новой философии, чтобы взять себя в руки.»

Профессор Рустам Stolkin, директор NCNR, сказал: «Национальный центр ядерных робототехники является уникальным в работу над практическими проблемами с промышленностью, с одновременным обеспечением высокого уровня современных научных исследований-на примере этого эпохального документа».

Исследование проводилось в сотрудничестве с Центром совершенствования робототехнических видение в технологический университет Квинсленда, Австралия, Скуола Супериоре Сант-Анна, Италия, Германский аэрокосмический центр (длр), Германия, и Университета Пизы, Италия.

0 ответы

Ответить

Хотите присоединиться к обсуждению?
Не стесняйтесь вносить свой вклад!

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *