動画(mp4)から画像(jpg)を指定したフレーム間隔で切り出すプログラム
動画(mp4)から画像(jpg)を切り出すプログラム。何フレーム毎に保存するか、画像のリサイズ、正方形へのトリミング、ピンぼけ画像を対象外にする指定ができるPythonのプログラム。機械学習用の画像用意する際に動画から切り出した方が便利なので作成した。
note to self 動画(mp4)から画像(jpg)を切り出すプログラム。何フレーム毎に保存するか、画像のリサイズ、正方形へのトリミング、ピンぼけ画像を対象外にする指定ができるPythonのプログラム。機械学習用の画像用意する際に動画から切り出した方が便利なので作成した。 GoogleのAutoML Visionでレゴパーツを学習させて学習済みモデルをラズパイにデプロイ。ラズパイ(RaspberryPi)にカメラを取り付けて写った映像をリアルタイムで機械学習で分類した時の備忘録。GoogleのEdge TPUデバイスのCoral USB Acceleratorで高速化 ラズパイにカメラを接続してカメラに写った物体をTensorFlow Liteで分類して物体名を画面に表示するサンプルプログラム。機械学習をさせるにはパワーが不足気味なラズパイの様なマシンでもCoral USB AcceleratorをUSB接続すれば十分な速度で動画の画像分類が可能という事なので試してみることにした。 Image classification(画像分類)は読み込んだ画像に何が写っているのかを推測して確率(%)で表してくれる。画像分類はiNaturalistの鳥のデータセットで学習されたモデルを使用しているので基本的には鳥の識別を行うサンプルとなっている。 ラズパイにも使えるQuimat 3.5インチタッチスクリーンを試した時の備忘録。小さなペンが付属していてタッチスクリーンに対応している。ラズパイに接続した時のGPIOがバイパスしているので使用できる。但しSPIは使用不可。タッチスクリーンの設定にちょっと戸惑ったので参考になればと思い記事にした。 先日レゴ・マインドストームEV3✕Chainer(実践! Chainerとロボットで学ぶディープラーニング)の記事がTwitterのタイムラインで流れてきた。ライン画像をカメラモジュールで読み取って事前に学習、学習済みのモデルを使ってラインの角度を予測している。フレームワークはChainerを使用している。 以前にRaspberry Piによる監視カメラのプログラムを作成したのだが、電源オン時のプログラムの自動起動にsystemdを使った。その時に調べた事を備忘録として記事にしておく。尚、検証環境はラズパイOS(Ubuntuベース)となっている。 教育用レゴマインドストームEV3の基本セットで3種類の自動ドアを作成した。書籍「The LEGO MINDSTORMS EV3 Idea Book」を参考にさせてもらっている。 温湿度モジュール(DHT11)のより詳しい説明。データシートとGitHubにアップされているDHT11用のモジュール__init__.py を見比べて分かったことを記事にしている。DHT11がどのようにして温湿度の数値を信号にしてOutputしているのかを中心に書いている。 RaspberryPi 3 B+に温湿度モジュール(DHT22)を接続してPythonのプログラムで10秒間隔で温湿度を測定して表示する簡単なプログラムを作成した時の備忘録。DHT22はDHT11の上位版、温湿度の測定範囲が広いのと湿度が0.1%単位で取得できる。 そう備忘録

動画(mp4)から画像(jpg)を指定したフレーム間隔で切り出すプログラム
GoogleのAutoML Visionサービスでレゴブロックを機械学習をさせて分類出来るかを試した
ラズパイのカメラに写った映像をリアルタイムでTensorFlow Liteで推測する
ラズパイとCoral USB Acceleratorで機械学習による画像の分類
ラズパイ用の3.5インチ・タッチスクリーン
レゴマインドストームEV3の黒ライントレースをディープラーニングでやってみる
systemdによる自動起動(Linux)
自動ドア各種を作ってみた ~レゴマインドストームEV3~
温湿度センサー(DHT11)の詳しい機能についてデータシートを見ながら調べた
ラズパイで温湿度を測定(DHT22)
最近のコメント