トクイテンメルマガ 第4号

トクイテンの共同創業者の森裕紀です。トクイテンメルマガの第4号をお届けします。
今回は第2号に続いて森の担当記事です。
 
博士課程で在籍した東京大学の知能システム情報学研究室(2006年当時は大津・國吉・原田研究室)では様々な知能ロボットについて研究していました。基本的なコンセプトは「作り込まないロボット知能」だったと思います。当時の研究室内では学生同士が議論することが活発でした。例えば「(物理)モデルに基づくロボット制御」と「データからの学習に基づくロボット制御」のそれぞれの優劣や自分たちの目指すロボット像についての議論、「洗濯機は知能ロボットか?」といった議論がお昼休みの話題となっていました(毎日ではないですが😅)。
 
研究室では画像認識の研究もしていましたが、触覚センサーの開発やそのロボットへの応用も活発に研究されていました。触覚に関してはロボットの表面に何百点もの触覚点のあるものが研究室で発明・実装されおり、画像もそうですが、そのような大量のデータを扱う場合にはデータに基づいたアルゴリズムが適切だという考え方の基に研究を行っていました。ロボット触覚の研究を傍目で見ながら胎児や赤ちゃんの研究をしていたため、結果的に触覚を組み込んだ胎児全身筋骨格シミュレーションにつながっていきます。
 
分解した脳の模型を前に作業する森(2007年)
分解した脳の模型を前に作業する森(2007年)
東大での研究で研究員として所属していた科学技術振興機構ERATO浅田共創知能システムプロジェクトで開発した9ヶ月型赤ちゃんロボットNoby。プレス発表のデモの当日(2010年6月11日)。このロボットの開発自体にはほんの少ししか携わっていないが、大変思い出深いロボット。視覚・聴覚・触覚が実装されている。
東大での研究で研究員として所属していた科学技術振興機構ERATO浅田共創知能システムプロジェクトで開発した9ヶ月型赤ちゃんロボットNoby。プレス発表のデモの当日(2010年6月11日)。このロボットの開発自体にはほんの少ししか携わっていないが、大変思い出深いロボット。視覚・聴覚・触覚が実装されている。
閑話休題。当時から考えられてきたデータ駆動型のロボット知能ですが、2011年頃からの深層学習のブームが追い風になります。2006年の東大の講義でパターン認識の権威である先生が「ニューラルネットワークは理論として面白いが実用性はない」と断言していたそのニューラルネットワークがリバイバルして深層学習(Deep Learning/Deep Neural Network)として復活したのでした。当初は画像認識の性能が話題になりましたが、その後、音声認識や自然言語処理など多くの分野で革新的な性能を叩き出してきました。
現在、森が株式会社トクイテンと共に所属している早稲田大学次世代ロボット研究機構・尾形哲也研究室では、視覚や触覚をロボットに組み込んで、深層学習を用いたEnd-to-End学習モデルを研究しています。End-to-Endモデルは、センサやロボットの運動情報を直接入出力にした深層学習モデルで、これまでは学習のためのデータ量を減らすために開発者の適切な設計による特徴量抽出が必要とされていたセンサ情報でも、そのまま入力してしまって学習することで、より複雑なタスクでも行えるようにしたものです。
深層学習をロボットに応用するというと「データが大量(数百万件程度)に必要で、ロボットへは実用がない」との議論があります。しかし、我々の研究では百回以下の動作データであっても、ある程度未知の状況であれば動作できることを確かめています。
Universal Robotics社のUR5を使ったロボット実験の様子。上部に取り付けた3次元画像センサが物体(紙コップ)を見て、ロボットアームが掴んでいる。(2021年、早稲田大学・尾形研究室にて)
Universal Robotics社のUR5を使ったロボット実験の様子。上部に取り付けた3次元画像センサが物体(紙コップ)を見て、ロボットアームが掴んでいる。(2021年、早稲田大学・尾形研究室にて)
農業では収穫物などを繊細に扱わなければならない場面がありますが、この10年ほどの人工知能やロボットのハード・ソフト両面の進歩が我々の事業の追い風になると信じています。