第41回創成塾

[2011.10.26]


2011年11月1日(火)18:00-20:00 豊中キャンパス 基礎工学研究科 A403にて第41回創成塾を開催いたします。

内容:
18:00-18:30 Matej Hoffmann (Ph.D. candidate,Artificial Intelligence Laboratory, Department of InformaticsUniversity of Zurich)
18:30-18:45 質疑応答
18:45-19:15 近藤 豊 (奈良先端大学情報科学研究科 D2)
19:15-19:30 質疑応答
19:30-20:00 パネルディスカッション

基礎工学研究科 A403講義室

講演1: Matej Hoffmann (Ph.D. candidate,Artificial Intelligence Laboratory, Department of Informatics University of Zurich)(On Skype talk)
“From locomotion to cognition”

The cognitivistic paradigm, which states that cognition is a result of computation with symbols that represent the world, has been challenged by many. Artificial systems based on this paradigm have achieved many successes, but encountered also fundamental problems. A prominent example is the symbol-grounding problem: if symbols are implanted into the brain of an artificial agent, how is it supposed to relate them to the real world such that they become meaningful? Alternatives were provided by embodied cognitive science and behavior-based robotics where the importance of embodiment – interaction with the environment through a body – is emphasized. While such agents that do not rely on representations demonstrate some remarkable capabilities, they are still restricted to tasks of limited complexity. In our research we attempt to bridge this gap. In a series of case studies centered around a quadruped robot, we will demonstrate how the robot can gradually become more “cognitive” and how this brings behavioral advantage to the robot. The robot will autonomously develop minimal representations of its body and its interaction with the environment (a body schema or self-model), including a brief look-ahead in the form of a forward model. These primitive representations are formed in a multi-modal sensory-motor space and are thus firmly grounded in the body-environment dynamics.

講演2:近藤 豊 (奈良先端大学情報科学研究科 D2)
「実時間インタラクションのための再構成可能な大規模動作データベースの構築」

人とロボットのコミュニケーション(HRI)において,聴覚情報である音声対話の生成に加え,視覚情報であるボディジェスチャの生成も重要となってくる.特に人間に近い見た目を持つアンドロイドの場合,人間らしい自然なジェスチャ表現が強く要求される.また,近年,多種多様なモーションキャプチャシステムの普及により,人間の動作を計測することが容易になってきている.そこで,今回は動作データベースを用いたジェスチャ生成に主眼を置いて発表する.提案手法は,データベースの持つ人間らしい自然な動作特徴を損なうことなく再構成することで,環境のセンシング結果に則した動作生成を実時間で行なうことができる.また,提案手法のジェスチャ生成を自律HRIシステムとしてアンドロイドActroid-SITに実装し,一般来訪者570名に対して評価実験を行った結果についても報告する.

[ページ先頭へ]