Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence, IJCAI 2017, Melbourne, Australia, August 19-25, 2017 3995-4001 2017年 [査読有り]
When a robot interacts with users in public spaces, it receives various sounds such as surrounding noises and users' voices. And furthermore, the robot needs to interact with multiple people at the same time. If the robot incorrectly determines wh...
Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, EMNLP 2016, Austin, Texas, USA, November 1-4, 2016 2144-2152 2016年 [査読有り]
In this paper, we describe an investigation into users' experiences of a simple talking robot with back-channel feedbacks that is designed based on an artificial subtle expression (ASE). In the experiments with participants, they are divided into ...
Humans develop their concept of an object by classifying it into a category, and acquire language by interacting with others at the same time. Thus, the meaning of a word can be learnt by connecting the recognized word and concept. We consider suc...
Proceedings of the SIGDIAL 2015 Conference, The 16th Annual Meeting of the Special Interest Group on Discourse and Dialogue, 2-4 September 2015, Prague, Czech Republic 87-95 2015年 [査読有り]
Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, EMNLP 2015, Lisbon, Portugal, September 17-21, 2015 2243-2248 2015年 [査読有り]
Proceedings of the 33rd Annual ACM Conference Extended Abstracts on Human Factors in Computing Systems, Seoul, CHI 2015 Extended Abstracts, Republic of Korea, April 18 - 23, 2015 2175-2180 2015年 [査読有り]
The human understanding of things is based on prediction which is made through concepts formed by categorization of their experience. To mimic this mechanism in robots, multimodal categorization, which enables the robot to form concepts, has been ...
In this paper, h-ASE(hesitation-based Artificial Subtle Expression) as a novel implementation of ASE is described, in which a robot expresses confidence in its advice to a human. Confidence in advice is one of robot's useful internal states, and i...
Proceedings of the SIGDIAL 2013 Conference, The 14th Annual Meeting of the Special Interest Group on Discourse and Dialogue, 22-24 August 2013, SUPELEC, Metz, France 369-371 2013年 [査読有り]
2013 ACM SIGCHI Conference on Human Factors in Computing Systems, CHI '13, Paris, France, April 27 - May 2, 2013, Extended Abstracts 1023-1028 2013年 [査読有り]
Expressing the confidence level of a system's suggestions by using speech sounds is an important cue to users of the system for perceiving how likely it is for the suggestions to be correct. We assume that expressing confidence levels by using hum...
Proceedings of the SIGDIAL 2012 Conference, The 13th Annual Meeting of the Special Interest Group on Discourse and Dialogue, 5-6 July 2012, Seoul National University, Seoul, South Korea 237-246 2012年 [査読有り]
The 21st IEEE International Symposium on Robot and Human Interactive Communication, IEEE RO-MAN 2012, Paris, France, September 9-13, 2012 215-220 2012年 [査読有り]
We argue that task-oriented spoken dialogue systems or communication robots do not need to quickly respond verbally as long as they quickly respond non-verbally by showing their internal states by using an artificial subtle expression. This paper ...
Mikio Nakano,Shun Sato,Kazunori Komatani,Kyoko Matsuyama,Kotaro Funakoshi,Hiroshi G. Okuno
Proceedings of the SIGDIAL 2011 Conference, The 12th Annual Meeting of the Special Interest Group on Discourse and Dialogue, June 17-18, 2011, Oregon Science & Health University, Portland, Oregon, USA 18-29 2011年 [査読有り]
20th IEEE International Symposium on Robot and Human Interactive Communication, RO-MAN 2011, Atlanta, Georgia, USA, July 31 - August 3, 2011 181-186 2011年 [査読有り]
2011 IEEE/RSJ International Conference on Intelligent Robots and Systems, IROS 2011, San Francisco, CA, USA, September 25-30, 2011 1540-1547 2011年 [査読有り]
INTERSPEECH 2011, 12th Annual Conference of the International Speech Communication Association, Florence, Italy, August 27-31, 2011 1325-1328 2011年 [査読有り]
Proceedings of the International Conference on Human Factors in Computing Systems, CHI 2011, Extended Abstracts Volume, Vancouver, BC, Canada, May 7-12, 2011 1249-1254 2011年 [査読有り]
Affective Computing and Intelligent Interaction - Fourth International Conference, ACII 2011, Memphis, TN, USA, October 9-12, 2011, Proceedings, Part II 22-30 2011年 [査読有り]
We describe artificial subtle expressions (ASEs) as intuitive notification methodology for artificial agents especially in order to convey their internal states for users. We prepared two types of audio ASEs; one is a flat artificial sound (flat A...
Proceedings of the SIGDIAL 2010 Conference, The 11th Annual Meeting of the Special Interest Group on Discourse and Dialogue, 24-15 September 2010, Tokyo, Japan 176-184 2010年 [査読有り]
Xiang Zuo,Naoto Iwahashi,Ryo Taguchi,Kotaro Funakoshi,Mikio Nakano,Shigeki Matsuda,Komei Sugiura,Natsuki Oka
19th IEEE International Conference on Robot and Human Interactive Communication, Viareggio, Italy, RO-MAN, 2010, September 13-15, 2010 608-613 2010年 [査読有り]
19th IEEE International Conference on Robot and Human Interactive Communication, Viareggio, Italy, RO-MAN, 2010, September 13-15, 2010 234-239 2010年 [査読有り]
Spoken Dialogue Systems for Ambient Environments - Second International Workshop on Spoken Dialogue Systems Technology, IWSDS 2010, Gotemba, Shizuoka, Japan, October 1-2, 2010. Proceedings 182-187 2010年 [査読有り]
INTERSPEECH 2010, 11th Annual Conference of the International Speech Communication Association, Makuhari, Chiba, Japan, September 26-30, 2010 2506-2509 2010年 [査読有り]
Xiang Zuo,Naoto Iwahashi,Ryo Taguchi,Shigeki Matsuda,Komei Sugiura,Kotaro Funakoshi,Mikio Nakano,Natsuki Oka
Proceedings of the IEEE International Conference on Acoustics, Speech, and Signal Processing, ICASSP 2010, 14-19 March 2010, Sheraton Dallas Hotel, Dallas, Texas, USA 2458-2461 2010年 [査読有り]
Proceedings of the 28th International Conference on Human Factors in Computing Systems, CHI 2010, Extended Abstracts Volume, Atlanta, Georgia, USA, April 10-15, 2010 3727-3732 2010年 [査読有り]
Proceedings of the 28th International Conference on Human Factors in Computing Systems, CHI 2010, Atlanta, Georgia, USA, April 10-15, 2010 1941-1944 2010年 [査読有り]
Masaki Katsumaru,Mikio Nakano,Kazunori Komatani,Kotaro Funakoshi,Tetsuya Ogata,Hiroshi G. Okuno
Human Language Technologies: Conference of the North American Chapter of the Association of Computational Linguistics, Proceedings, May 31 - June 5, 2009, Boulder, Colorado, USA, Short Papers 133-136 2009年 [査読有り]
Masaki Katsumaru,Mikio Nakano,Kazunori Komatani,Kotaro Funakoshi,Tetsuya Ogata,Hiroshi G. Okuno
INTERSPEECH 2009, 10th Annual Conference of the International Speech Communication Association, Brighton, United Kingdom, September 6-10, 2009 2735-2738 2009年 [査読有り]
INTERSPEECH 2009, 10th Annual Conference of the International Speech Communication Association, Brighton, United Kingdom, September 6-10, 2009 2731-2734 2009年 [査読有り]
Natural language interfaces are expected to come into practical use in many situations. It is, however, not practical to expect to achieve a universal interface because language use is so diverse. To that end, not only advancements in speech and l...
Proceedings of the SIGDIAL 2008 Workshop, The 9th Annual Meeting of the Special Interest Group on Discourse and Dialogue, 19-20 June 2008, Ohio State University, Columbus, Ohio, USA 88-91 2008年 [査読有り]
Proceedings of the 12th International Conference on Intelligent User Interfaces, IUI 2007, Honolulu, Hawaii, USA, January 28-31, 2007 333-336 2007年 [査読有り]
2007 IEEE/RSJ International Conference on Intelligent Robots and Systems, October 29 - November 2, 2007, Sheraton Hotel and Marina, San Diego, California, USA 1435-1440 2007年 [査読有り]
EACL 2006, 11st Conference of the European Chapter of the Association for Computational Linguistics, Proceedings of the Conference, April 3-7, 2006, Trento, Italy 2006年 [査読有り]
Natural Language Processing - IJCNLP 2005, Second International Joint Conference, Jeju Island, Republic of Korea, October 11-13, 2005 - Companion Volume to the Proceedings of Conference including Posters/Demos and tutorial abstracts 2005年 [査読有り]
PRICAI 2004: Trends in Artificial Intelligence, 8th Pacific Rim International Conference on Artificial Intelligence, Auckland, New Zealand, August 9-13, 2004, Proceedings 635-643 2004年 [査読有り]
COLING 2004, 20th International Conference on Computational Linguistics, Proceedings of the Conference, 23-27 August 2004, Geneva, Switzerland 2004年 [査読有り]
我々は Project Next NLP対話タスクの営みとして,対話システム,特に,雑談を行う対話システムのエラー分析を行った.具体的には,雑談対話コーパスを収集し,対話破綻個所を特定し,これらの対話破綻個所がどのようなシステムのエラーによって引き起こされたかを分析・類型化した.本稿では,我々が本分析に至った背景や得られた知見について解説する.
アダムズ サム S., アレル イタマール, バッハ ヨシャ, クープ ロバート, ファーラン ロッド, ゲーツェル ベン, ホール ジョシュ ストアズ, サムソノヴィッチ アレクセイ, ショイツ マティアス, シュレジンガー マシュー, シャピロ スチュアート, ソワ ジョン, 篠田 孝祐, 市瀬 龍太郎, ジェプカ ラファウ, 寺尾 敦, 船越 孝太郎, 松島 裕康, 山川 宏, Sam S. Adams, Itamar Arel, Joscha Bach, Robert Coop, Rob Furlan, Ben Goertzel, J. Storrs Hall, Alexei Samsonovich, Matthias Scheutz, Matthew Schlesinger, Stuart C. Shapiro, John Sowa, Kosuke Shinoda, Ryutaro Ichise, Rafal Rzepka, Atsushi Terao, Kotaro Funakoshi, Hiroyasu Matsushima, Hiroshi Yamakawa, テネシー大学, フンボルト大学, テネシー大学, シンギュラリティ大学, ノバメンテLLC:厦門大学, / ジョージメイソン大学, インディアナ大学, 南イリノイ大学, ニューヨーク州立大学バッファロー校, / 電気通信大学, 国立情報学研究所, 北海道大学, 青山学院大学, 株式会社ホンダ・リサーチ・インスティチュート・ジャパン, 産業技術総合研究所, 株式会社富士通研究所, IBM Research, University of Tennessee, Humboldt University of Berlin, University of Tennessee, Singularity University, Novamente LLC:Xiamen University, Institute for Molecular Manufacturing, George Mason University, University of Indiana, South Illinois University, SUNY Buffalo, Vivomind, University of Electro-Communications, National Institute of Informatics, Hokkaido University, Aoyama Gakuin University, Honda Research Institute Japan Co. Ltd., National Institute of Advanced Industrial Science and Technology, Fujitsu Laboratories Ltd.
人工知能 = journal of the Japanese Society for Artificial Intelligence 29(3) 241-257 2014年5月
本論文では人間レベルの汎用人工知能(Artificial General Intelligence:以下AGI)の実現に向けたロードマップの概要を述べる.AGI一般に関する議論から始め,実現への現実的な目標および特性と必要条件に関して基本的な定義を行い,AGIが備えるべき能力の起点となる展望(全体図)を示す.具体的には,発達心理学からAGIの主要テーマを導出し,数学的・生理学的・情報処理的観点から実装に必要な知見を得る.AGIの性能評価に適したタスクと環境を同定し,AGIの全体図上のロード...
対話システムのための,ベイジアンネットワークを用いた参照表現のモデルを提案する.提案モデルは,記述,照応,直示を統一的に扱い,参照表現の理解と生成に用いることができる.本稿では,提案モデルの概要とその利用方法を説明し,様々な参照表現をどのようにベイジアンネットワークとして表現するのかを示す.そして音声対話システムへの統合に向けた議論を行い,関連研究について述べる.A Bayesian network-based model available both for resolution and...
This paper proposes a method for the unsupervised learning of lexicons from pairs of a spoken utterance and an object as its meaning under the condition that any priori linguistic knowledge other than acoustic models of Japanese phonemes is not us...
音声対話システムの開発の初期段階において,言語理解部は,(i) 構築が容易,(ii)様々な表現に対して頑健という2条件を満たす必要がある.本論文では,大量のコーパス収集や人手での詳細な言語理解ルールの記述を行うことなしに,簡単に言語理解部を構築する(ラピッドプロトタイピング)手法について述べる.本手法では,音声認識誤りを含む入力に対して,Weighted Finite State Transducer(WFST)により言語理解結果を出力する.この際の重みは複数種類を定義したうえで,学習デー...
本稿では,インタラクティブプレゼンテーションシステムにおける視聴者発話の理解のための発話分類法を提案する.提案法は文書分類法を視聴者発話の n-best 音声認識結果に適用する.分類時だけではなく,分類モデルの学習時にも音声認識結果を用いる.レストラン案内システムのデータを用いた評価実験により提案法の有効が示された.This paper presents a novel method for classifying audience utterances to recognize inte...
本稿では,インタラクティブプレゼンテーションシステムにおける視聴者発話の理解のための発話分類法を提案する.提案法は文書分類法を視聴者発話の n-best 音声認識結果に適用する.分類時だけではなく,分類モデルの学習時にも音声認識結果を用いる.レストラン案内システムのデータを用いた評価実験により提案法の有効が示された.This paper presents a novel method for classifying audience utterances to recognize inte...
近年,ロボットが注目を浴びており,研究,開発が盛んに行われている.特にヒューマノイドロボットは多くのモダリテイを持つためⅢ人間と同じような仕事ができることが期待される,我々は,ヒューマノイドロボットのこの点に瀞目し,誰でも簡単にロボットによるプレゼンテーションコンテンツを作成することのできる記述言語MPML-HR(Multimodal Presentation Markup Language for Humanoid Robots)の開発を行ってきた.MPML-HRを用いることでプレゼンテ...
近年,ロボットが注目を浴びており,研究,開発が盛んに行われている.特にヒューマノイドロボットは多くのモダリティを持つため,人間と同じような仕事ができることが期待される.我々は,ヒューマノイドロボットのこの点に着目し,誰でも簡単にロボットによるプレゼンテーションコンテンツを作成することのできる記述言語MPML-HR (Multimodal Presentation Markup Language for Humanoid Robots)の開発を行ってきた.MPML-HRを用いることでプレゼン...