souichirou | そう備忘録 - Part 23

作成者: souichirou

動画から画像を切り抜くプログラム 2

動画(mp4)から画像(jpg)を指定したフレーム間隔で切り出すプログラム

動画(mp4)から画像(jpg)を切り出すプログラム。何フレーム毎に保存するか、画像のリサイズ、正方形へのトリミング、ピンぼけ画像を対象外にする指定ができるPythonのプログラム。機械学習用の画像用意する際に動画から切り出した方が便利なので作成した。

AutoMLVisionによるレゴパーツの機械学習 0

GoogleのAutoML Visionサービスでレゴブロックを機械学習をさせて分類出来るかを試した

GoogleのAutoML Visionでレゴパーツを学習させて学習済みモデルをラズパイにデプロイ。ラズパイ(RaspberryPi)にカメラを取り付けて写った映像をリアルタイムで機械学習で分類した時の備忘録。GoogleのEdge TPUデバイスのCoral USB Acceleratorで高速化

ラズパイ・カメラでの撮影 6

ラズパイのカメラに写った映像をリアルタイムでTensorFlow Liteで推測する

ラズパイにカメラを接続してカメラに写った物体をTensorFlow Liteで分類して物体名を画面に表示するサンプルプログラム。機械学習をさせるにはパワーが不足気味なラズパイの様なマシンでもCoral USB AcceleratorをUSB接続すれば十分な速度で動画の画像分類が可能という事なので試してみることにした。

Google Coral Accelerator 0

ラズパイとCoral USB Acceleratorで機械学習による画像の分類

Image classification(画像分類)は読み込んだ画像に何が写っているのかを推測して確率(%)で表してくれる。画像分類はiNaturalistの鳥のデータセットで学習されたモデルを使用しているので基本的には鳥の識別を行うサンプルとなっている。

3.5インチタッチスクリーン 1

ラズパイ用の3.5インチ・タッチスクリーン

ラズパイにも使えるQuimat 3.5インチタッチスクリーンを試した時の備忘録。小さなペンが付属していてタッチスクリーンに対応している。ラズパイに接続した時のGPIOがバイパスしているので使用できる。但しSPIは使用不可。タッチスクリーンの設定にちょっと戸惑ったので参考になればと思い記事にした。

EV3、ラズパイ、Chainerによるライントレース 3

レゴマインドストームEV3の黒ライントレースをディープラーニングでやってみる

先日レゴ・マインドストームEV3✕Chainer(実践! Chainerとロボットで学ぶディープラーニング)の記事がTwitterのタイムラインで流れてきた。ライン画像をカメラモジュールで読み取って事前に学習、学習済みのモデルを使ってラインの角度を予測している。フレームワークはChainerを使用している。

systemctl list-dependenciesの結果 9

systemdによる自動起動(Linux)

以前にRaspberry Piによる監視カメラのプログラムを作成したのだが、電源オン時のプログラムの自動起動にsystemdを使った。その時に調べた事を備忘録として記事にしておく。尚、検証環境はラズパイOS(Ubuntuベース)となっている。

外観とピンについて 3

温湿度センサー(DHT11)の詳しい機能についてデータシートを見ながら調べた

温湿度モジュール(DHT11)のより詳しい説明。データシートとGitHubにアップされているDHT11用のモジュール__init__.py を見比べて分かったことを記事にしている。DHT11がどのようにして温湿度の数値を信号にしてOutputしているのかを中心に書いている。

DHT22とRaspberryPiとの接続図 2

ラズパイで温湿度を測定(DHT22)

RaspberryPi 3 B+に温湿度モジュール(DHT22)を接続してPythonのプログラムで10秒間隔で温湿度を測定して表示する簡単なプログラムを作成した時の備忘録。DHT22はDHT11の上位版、温湿度の測定範囲が広いのと湿度が0.1%単位で取得できる。