NVIDIAのJetson Nanoで「ディープ・ラーニングによる画像分類」をやってみた
NVIDIAのJetson Nano 2GB 開発者キットを購入したのでDeep LearningによるImageNetの画像分類をやってみた。WEBカメラに写ったモノ(ペットボトル)を分類したり画像(戦闘機)を読み込んで何が写っているのかを分類する。ネットワークはGoogleNetで試したが複数のネットワークが可能
NVIDIAのJetson Nano 2GB 開発者キットを購入したのでDeep LearningによるImageNetの画像分類をやってみた。WEBカメラに写ったモノ(ペットボトル)を分類したり画像(戦闘機)を読み込んで何が写っているのかを分類する。ネットワークはGoogleNetで試したが複数のネットワークが可能
WordPressの記事の音声読み上げと多言語対応しているAWS for WordPressのプラグインを試してみた時の備忘録。Amazon Pollyで記事の音声読み上げとAmazon Translateで他言語にAIで翻訳して音声読み上げをしてくれるプラグイン。
このロボットの動きが非常に滑らかなのにも驚いたのだが、AIを用いて強化学習でフリースローが上手くなっていくとの情報があって更に感嘆した。ロボットとAIとの組み合わせは日本がまだアドバンテージがある状態だと思っていたのだが韓国の大学の技術も素晴らしいと感じた。
ニューラルネットワークを使ったGoogleのCloud Vision APIで写真上の文字をどの程度検出出来るのかを試してみた。通天閣、巣鴨地蔵通り商店街などの画像からランドマーク検出(場所を特定する)を行うと同時にCloud Vision APIのText Detection(テキスト抽出)を試してみた。
GCP(Google Cloud Platform)のCloud Vision APIを使って風景写真のランドマークから場所を特定するAPIを試した時の備忘録。イスラエル国ハイファのバーブ廟、クロアチアのアドリア海沿岸にあるドゥブロヴニクの城壁、姫路城を検出してみた。
GoogleのAutoML Visionでレゴパーツを学習させて学習済みモデルをラズパイにデプロイ。ラズパイ(RaspberryPi)にカメラを取り付けて写った映像をリアルタイムで機械学習で分類した時の備忘録。GoogleのEdge TPUデバイスのCoral USB Acceleratorで高速化
先日レゴ・マインドストームEV3✕Chainer(実践! Chainerとロボットで学ぶディープラーニング)の記事がTwitterのタイムラインで流れてきた。ライン画像をカメラモジュールで読み取って事前に学習、学習済みのモデルを使ってラインの角度を予測している。フレームワークはChainerを使用している。
最近のコメント