教育機関向けオンライン試験カンニング防止AIはEdge端末とWEBカメラで試験官のサポートをする
教育機関向けのオンライン試験カンニング防止AIについて思ったことを書いた。画像認識ディープラーニング技術を使用して熟練試験官の「何となく怪しい動き」と感じる視覚からの情報をディープラーニングでどのレベルまで再現できているかがポイントだと思う。
教育機関向けのオンライン試験カンニング防止AIについて思ったことを書いた。画像認識ディープラーニング技術を使用して熟練試験官の「何となく怪しい動き」と感じる視覚からの情報をディープラーニングでどのレベルまで再現できているかがポイントだと思う。
レゴと互換のあるプログラミングできるブロックが発売されたとの記事を見た。自分はレゴクリエイターの作品を動かしたくて無理やりマインドストームEV3に繋げたりしていたので、これならスマートに既存のレゴ製品を動かす事ができる。レゴクリエイターやレゴフレンズの作品を動かしたり光らせたりしたいとの要望は結構多いと思う。
Googleのトレーニングプログラムに挑戦してハンズオンを11個終了したのでTensorFlowの記念品を貰った。参加費は無料で1ヶ月間で機械学習関連のハンズオンを4つ以上終了すればマグカップ、8つ以上終了すればTシャツ等の記念品を貰えたので頑張って11個のハンズオンを終了した。
Spotify Free(無料版)がアレクサアプリから使える様になったらしいので早速設定をしてみた。Spotifyには有料版と無料版がある。無料版は、広告が入る、好きな曲を再生できない、音質が有料版より落ちる、オフライン再生ができない等の制限があるのと、Amazon Echoのアレクサアプリに設定する事が出来なかった。
教育用レゴマインドストームEV3で前進をしながらカラーセンサーでランダムな順番に置かれた4色(赤、青、黄、緑)のカラーブロックを読み取り、4色読み取った後で順番に色を読み上げるプログラムを作成した。条件は「置かれる順番はランダム」「停止せずにカラーブロックを読み取る」「読み取った後に順番でカラーを読み上げる」
AWSのDynamoDBからデータを取り出して全件JSON形式て出力するPythonのプログラムを備忘録として記事にしておく。尚、読み込むDynamoDBは以前に「ラズパイZEROとモーションセンサーで見守りシステムをつくる」の記事で作成したモーションセンサーでのカウント記録が格納されたテーブルとした。
ニューラルネットワークを使ったGoogleのCloud Vision APIで写真上の文字をどの程度検出出来るのかを試してみた。通天閣、巣鴨地蔵通り商店街などの画像からランドマーク検出(場所を特定する)を行うと同時にCloud Vision APIのText Detection(テキスト抽出)を試してみた。
GCP(Google Cloud Platform)のCloud Vision APIを使って風景写真のランドマークから場所を特定するAPIを試した時の備忘録。イスラエル国ハイファのバーブ廟、クロアチアのアドリア海沿岸にあるドゥブロヴニクの城壁、姫路城を検出してみた。
ブログのサーバーでメモリ不足が発生していたのでAWS EC2のインスタンスタイプをt2.microからt2.smallに変更した。AWSではわずかな停止時間でインスタンスタイプをスケールアップする事ができるので誰かの参考になればと思い記事にしておく。
GCP(Google Cloud Platform)のCloud Vision APIを使って複数の人物の写った写真の顔の表情から感情を分析した時の備忘録。日本人家族、外国人家族の2パターンの検出を行った。喜び、悲しみ、怒り、驚きの4種類の感情を分析すると同時に顔のパーツの写真上の座標を検出する。
最近のコメント