Група, що спеціалізується на робототехніці в підрозділі DeepMind компанії Google, представила три інноваційні продукти, спрямовані на підвищення швидкості прийняття рішень, ефективності та безпеки дій роботів при виконанні завдань у присутності людей.
Про це пише РБК-Україна (проект Styler) із посиланням на американський веб-сайт про комп'ютерну техніку та гаджети The Verge.
AutoRT, система збору даних, функціонує на базі візуальної мовної моделі (VLM) та великої мовної моделі (LLM), які забезпечують роботам здатність оцінювати навколишнє середовище, адаптуватися до нових умов та приймати рішення щодо виконання поставлених завдань. VLM застосовується для аналізу оточення та розпізнавання об'єктів у зоні видимості, тоді як LLM відповідає за творче вирішення завдань.
Найважливішим нововведенням AutoRT стала поява в блоці LLM "Конституції роботів" - спрямованих на безпеку команд, які наказують машині уникати вибору завдань, у яких беруть участь люди, тварини, гострі предмети та навіть електроприлади.
З метою додаткової безпеки роботи програмуються на зупинку, коли зусилля на суглобах перевищує певний поріг; а в їхній конструкції тепер є додатковий фізичний вимикач, яким людина може скористатися в екстреному випадку.
Автори "Конституції робота" були натхненні Трьома законами робототехніки Айзека Азімова:
Другим інноваційним покращенням стала система SARA-RT (Self-Adaptive Robust Attention for Robotics Transformers), яка орієнтована на оптимізацію роботи моделі RT-2. Дослідники виявили, що при подвоєнні обсягу вхідних даних, наприклад, при підвищенні роздільної здатності камер, потреба робота в обчислювальних ресурсах збільшується вчетверо.
Цю проблему вдалося подолати з використанням нового методу тонкого налаштування штучного інтелекту, названого up-training. Він ефективно перетворює квадратичне зростання потреби в обчислювальних ресурсах на майже лінійний, дозволяючи моделі працювати більш ефективно, зберігаючи при цьому високу якість.
Нарешті інженери Google DeepMind представили штучний інтелект RT-Trajectory, який спрощує навчання роботів виконанню конкретних завдань. При постановці завдання оператор демонструє зразок виконання; RT-Trajectory аналізує надану людиною траєкторію руху та адаптує її до дій робота.
Нагадаємо, що представлено кишеньковий робот-тамагочі зі ШІ.
Читайте також про те, як робота-собаку Spot навчили говорити.