• 会員限定
  • 2017/07/03 掲載

ディープラーニングで花特定、100キロ可搬の二足ロボ--千葉工大の何がスゴいのか?

  • icon-mail
  • icon-print
  • icon-hatena
  • icon-line
  • icon-close-snsbtns
会員になると、いいね!でマイページに保存できます。
人工知能やロボットが注目を集める中、意欲的な挑戦を続けているのが千葉工業大学だ。同校の東京スカイツリータウンキャンパスでは、ディープラーニングを駆使して花の名前や種類などを特定する「hananona」や世界最大クラスの可搬重量に対応できる2足歩行ロボット「core」、未来のビークルのコンセプトモデル「Halluc II」、魔法のカード「ON THE FLY PAPER」などのほか、実物大のマクロスF「バルキリー VF-25F」など、見応え抜群の展示物が数多く取り揃えられている。現地を訪ね、千葉工業大学 人工知能・ソフトウェア技術研究センター 主席研究員/工学博士 竹内 彰一 氏に話を聞いた。
画像
実物大のマクロスF「バルキリー VF-25F」。「ガウォーク」形態の実物大の造形物が展示されている
(c)'07 BW/MFP・MBS



ディープラーニングで花の名前や種類を分類表示

 東京スカイツリータウン・ソラマチ8階にある千葉工大 東京スカイツリータウンキャンパスには、同校の研究・開発によって誕生した数多くのロボットから、人工知能技術や、惑星探査による宇宙技術まで、最先端の展示物が一堂に紹介されている。

画像
千葉工大の東京スカイツリータウンキャンパス。巨大なロボットが出迎える

 まず大きな目玉展示として注目を浴びていたのが、人工知能・ソフトウェア技術研究センターが監修した「hananona(ハナノナ)」だ。これは約30万枚もの花の写真をディープラーニングによって学習させ、406種類の花のうち最も近いと思われる花の名前や種類を教えてくれる花分類システムだ。

画像
ディープラーニングを活用した花分類システム「hananona(ハナノナ)」
 調べたい花の写真や絵など、抽象度の異なる素材を中央テーブルに置くと、上部に設置されたカメラから対象物が撮影される。そのデータがネットワーク経由でクラウド側のサーバに送られ、自動判定した結果をシステム側に返してくれる。

 分類結果は「花マップ」と呼ばれる、クラスター化された花分類のなかで表示される。対象が具体的にどこに位置しているのか、万華鏡のような美しい4Kの円形ディスプレイによって視覚化される。406種類以外の訓練していない花の場合は、正解の名前まではないものの、形の似ている花に分類してくれるという。

 また、hananonaはWebバージョンも開発されており、スマートフォンなどからも利用できるようになっているため、花が好きな方は試してみるとよいだろう。

画像
スマートフォンからでも花の画像から名前や種類を調べられる

 千葉工業大学 人工知能・ソフトウェア技術研究センター 主席研究員/工学博士 竹内彰一氏は、「花の分類に着目したのは、花は形が似たようなものが多く、見分けがつきづらいからです。たとえば人と猫というように明らかに異なるものであれば、誰でも簡単に区別できます。似ているものをいかにキメ細かく分類していくかという点がチャレンジのポイントでした」と語る。

hananonaの画像認識は22層のCNNで判定

photo
千葉工業大学
人工知能・ソフトウェア技術研究センター
主席研究員/工学博士
竹内 彰一 氏
 hananonaは、前出のとおり406種類の花を分類できるが、それぞれに700枚以上の写真を用意し、1回あたり1週間ほどの時間をかけてディープラーニングで学習させたそうだ。画像認識には、スタンダードな畳み込みニューラルネットワークの「CNN(Convolutional Neural Network)」を使っており、22層ほどで判定している。

「開発に着手したのは1年半ほど前のことですが、やはり必要なデータを揃えるのに苦労しました。今回は花を対象にしていますが、応用として鳥や昆虫、木の葉などの認識させれば、インタラクティブ図鑑のようなものもつくれるようになるでしょう」(竹内氏)

 ビジネス的な応用としては、たとえば医療分野において、レントゲンや内視鏡などで撮影した写真を判別することにも使える。画像認識に関わるビジネスであれば、いろいろなことに応用が利くが、今後は認識モデルを変えて、音声・音響にも適用したい意向だ。機械などの音響を調べ、ネジのゆるみやベアリングの劣化など、事前に故障しそうな部分を調べることも可能だ。

関連記事
 また同研究センターでは、ディープラーニングで映像を解析する研究にも取り組んでいるという。動画の場合には、時間の流れも考慮する必要があるため、いわゆる再帰型ニューラルネットワークの「RNN(Recurrent Neural Network)」を使うことが多い。

「いま人の基本的な動作を集めて、それを認識できる技術を開発しようとしているところです。我々には、ロボットの研究所(未来ロボット技術研究センター)もあるため、ロボットへの応用もブレストしているところです。まだ発表段階の具体的な成果はありませんが、各研究所で刺激しあいながら開発を進めていきたいと考えています」(竹内氏)。

【次ページ】可搬重量100㎏の二足歩行ロボットやロボット解剖学も新たに展示
関連タグ タグをフォローすると最新情報が表示されます
あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

必要な会員情報が不足しています。

必要な会員情報をすべてご登録いただくまでは、以下のサービスがご利用いただけません。

  • 記事閲覧数の制限なし

  • [お気に入り]ボタンでの記事取り置き

  • タグフォロー

  • おすすめコンテンツの表示

詳細情報を入力して
会員限定機能を使いこなしましょう!

詳細はこちら 詳細情報の入力へ進む
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます