忘年会の定番ピザ🍕 ピザハットのWEBサイト経由だと30%OFFクーポンが適用されるのでお買い得👍 でもいろんな種類のピザを大量に注文したいとき、毎回クーポン選択、ピザ種類、パン生地を選ぶのが面倒。。。 そこでブラウザを自動操作するPythonコードを書いてピザ26枚を一気に発注🙂 ※8倍速です pic.twitter.com/WmbT9kcDth
2019-12-19 18:03:29ROS初心者がラジコンにESP32載せてROS2ノード化しました。 コードはros2_esp32botでgithubに置いてます。 ESP32をPCと同じアクセスポイントに接続すれば、ROS2公式Tutorialの画面上で動く亀のように、cmd_velを受け取って動作します。 動画ではteleop_twist_joyから操作コマンドを送ってます🙂 pic.twitter.com/G9Ewsrjd0R
2019-12-01 11:14:594G/LTEのマスタースレーブのテスト。 腰ヨー軸が追加されました🙂 ※2倍速 pic.twitter.com/SnenwP9j3K
2019-10-30 00:05:38スマホの操作画面はこのようになっています。 画面左のジョイスティックでルンバの移動、右のジョイスティックでカメラ向きを切り替えられます。 ブラウザが対応していればPCからも利用できます。 ※こちらの動画も8倍速です pic.twitter.com/1eyA99HJUK
2019-10-27 02:12:13私がヤフオクにて2000円で落札しなければ、おそらく粗大ゴミになってた中古の壊れたルンバ(2011年発売)、 カメラとアーム付けて魔改造しました🔧 スマホ+専用コントローラー使って、インターネット経由で遠隔操作できます🙂 まだ掃除機と呼んでもギリギリ許される範囲...? ※動画は8倍速です 続 pic.twitter.com/UlUXrOImCi
2019-10-27 02:11:50ネットに接続して遠隔操作できるマスタースレーブを作りました。 ESP32からWifi接続、AWS IoT使ってMQTT通信。 マスター部分はプリメイドAIの上半身を流用。 遅延は100msecくらい。 ※動画は4倍速です。 #プリメイドAIハック pic.twitter.com/h6Ny8z1AtV
2019-10-26 00:36:20ESP32でAWS IoT使ってMQTTするテスト。 片道の遅延は30~100msecくらい?(ラウンドトリップタイムの半分) pic.twitter.com/eNMPulvjbL
2019-10-23 10:27:59デスク横にインテルCore i9とRTX2080を移動。 pic.twitter.com/SQzAIYF4Sa
2019-10-20 18:41:38HTC VIVE Trackerの位置・姿勢を出力するPythonスクリプトをgithubに置きました🙂 HMD無しでも動作します。Ubuntu 18.04 Python3.6で動作確認。 github.com/shirokunet/PyV… pic.twitter.com/OT4yC9WjLN
2019-10-20 00:22:27ルンバ780(ジャンク品)をヤフオクにて2000円で落札。 なんとか電源は入ったのですが、その場で回るだけで掃除は出来ない子... 故障部品の交換ついでに、カメラとラズパイ載せて新機能を追加! 外出先からスマホで操作したり、充電ステーションへ戻るように指示できます🙂 ※動画は4倍速です pic.twitter.com/KI9n6Vqw6l
2019-10-19 13:07:57ネットから遠隔操作が可能な1/14スケール重機を作りました👷 本日開催された「第19回建設ロボットシンポジウム」の富士建ブースにて出展しました。 静岡の倉庫にあるミニ重機を、福岡のイベント会場から遠隔操作できることを確認しました🙂 (動画は8倍速です。) pic.twitter.com/kUtS8U71f6
2019-10-09 20:00:42NVIDIAのJetson Nanoで、動ける遠隔操作カメラ作った。 JetsonにSIMカード搭載しているので、一般的な携帯電話が使えるエリアならどこに設置しても操作可能。 動画中のスマホはローカルネットワークではなく4G回線経由の操作。 pic.twitter.com/4rs3wfbh3q
2019-10-07 02:03:17小さい机だからといってデスクトップPCを置くことを諦めてはいけない() pic.twitter.com/TwRfVi01EO
2019-10-06 19:51:38ジャンク品として買った掃除してくれないルンバ、ラズパイ載せたら普通に動いた。 動作確認にはPyRoombaAdapterを利用しました。 pic.twitter.com/xD7Hymksvw
2019-10-06 18:34:44内側からは押しボタンで解錠・施錠できます。ライトの点滅で帰宅時の閉め忘れをお知らせしてくれます。 pic.twitter.com/hApUO2slWz
2019-09-21 22:30:51「SSH接続は無理」という意見をもらったので、家族が普段持ち歩いているSuicaやPASMOなどの交通系ICカードを登録し、ワンタッチで解錠・施錠できるようにしました。 pic.twitter.com/9h6qvbHs9U
2019-09-21 22:29:57引っ越したばかりのアパート、残念ながら玄関のカギが1つしかない。 家族が「合鍵を作って欲しい」というのでラズパイ設置した。 pic.twitter.com/gdqp5n2YGZ
2019-09-18 22:59:34ドンキで買った1300円のラジコンを、外出先からスマホで操作できるように改造しました🚙 うちのヌッコの見守り用に作ったのですが、まだ慣れていない様子😼 #RaspberryPi #ヌッコカー pic.twitter.com/P45LzxbpsZ
2019-08-30 19:50:09最近よく見かけるOdriveを回してみた。なかなか使いやすい🙂 pic.twitter.com/3OEB40BQXS
2019-07-04 11:25:49時雨堂さんのOSS、WebRTC Momo 19.07.0-rc0 バイナリリリースされたので、手元のRaspberry Pi 3B で動かしてみました。 720pの30fps固定。 Wifiルータ経由で遅延は約200msec。 高画質になったのに遅延は据え置きという驚きの性能! Raspberry Pi とCameraがあれば誰でも簡単に試せます🙂 pic.twitter.com/sahORXo7Ow
2019-06-18 11:27:44RTKLIBのCUIを使えるようになったので、人が運転する車にRaspberry Pi 3B、u-blox M8T、GGB0710を載せてRTKしてみた。カメラ画像の取得は時雨堂さんのMomo。動画は10倍速。 pic.twitter.com/kioWlFz3go
2019-06-17 18:12:22プロット見ながら直径20mmに収まるのって本当なんだなぁって顔してる pic.twitter.com/xLB5I8GfoL
2019-06-05 05:13:14Raspberry Pi 3Bでほぼリアルタイムにネット経由で動かせるラジコンを作った。 車両のカメラ映像はWebRTC Momoを使ってオペレータのPCへ配信、操作コマンドはMQTT越しに車両へ送信。 試しに近くの公園で走らせてみると、カメラ映像のみ見ながらでも運転はできた。 pic.twitter.com/p2ka31isRN
2019-06-03 17:36:54自動運転向けプロトタイピングツール、PythonPilotを公開しました! 他のOSSと比較し機能は劣りますが、PCで気軽に試せるものとなっています。まだカメラベースの横方向制御しかありませんが、これから少しづつ機能追加していきます。 github.com/YanbaruRobotic… pic.twitter.com/whOYpxxuhp
2019-05-21 16:27:20陸路の荷物やっときたので、バッテリーからデスクトップPC動かすテスト。音うるさい。 pic.twitter.com/wWSKbOLOdW
2019-05-02 12:58:03認識PCとステアコントロール用マイコン間の通信に、今までは簡易的にRS-232Cシリアル通信使っていた。今後、CANに乗り換えるためにテスト組んだ。 pic.twitter.com/DrbbUVyyWk
2019-04-22 06:11:24運転支援OSS、TensorFlowベースのテスト。車線認識モデルはtusimple_lanenet、物体認識モデルはssd_mobilenet_v1_coco_2018_01_28を使用。Pythonで動いてる。 pic.twitter.com/E3l40dOKZ3
2019-01-28 08:27:56開発中の運転支援OSS、車線認識と物体認識を統合した。車線認識はConditional Random Fieldsによる識別。物体認識はDeep Learning FWの中でCaffeを選択、モデルはYOLOv3ベース。各計算、他マイコンとの通信、GUI描画などは、Qt上でスレッドを分けており、JetsonTX2上でほぼリアルタイムに動作する。 pic.twitter.com/d03C5WI2PD
2018-12-20 20:14:11このあいだ試したCRFベースの車線検出をマージ。20fps内で処理できるように計算エリアは絞ってある。 pic.twitter.com/JtTxcB628w
2018-12-13 17:19:40detection_model_zoo で遊んでた。 だいたい動かしたけど、ssd_mobilenet_v1_0.75_depth_coco が速度と精度のバランスがいい。 pic.twitter.com/wnyutmAX2d
2018-11-17 09:02:42デバッグ中の様子。動画ファイルからレーン検出、目標角度を送っている。 pic.twitter.com/dGVeP9tMoV
2018-10-26 10:39:35こんな感じで助手席に座ってデバッグしてた。画面が小さくて大変。 pic.twitter.com/NFfEx3fwl1
2018-09-09 11:03:07Jetsonカメラを載せて近所の101を走ってきた。コンディションがいい道路だとよく検出できている。 pic.twitter.com/WT7awkjTZL
2018-09-09 10:58:30Jetson TX2カメラを車に取り付けた。基本的な動作テストはクリア。これからキャリブレーションします。 pic.twitter.com/a7bi6nc3x9
2018-09-07 08:44:11Jetson TX2 でリアルタイム道路認識の机上テスト。1280*720で20fps。 pic.twitter.com/iauhw9JvJy
2018-08-15 17:15:54Jetson TX2に搭載されているカメラで、YOLO v3のテスト。リアルタイムで物体認識。FPSは3くらい。 pic.twitter.com/awbaZN9LPa
2018-07-24 07:09:03作ったDonkey Carを試した。自動でライントレース。動画は5倍速。人が運転を教えるとロボットがそれに習う。Tensor Flowで学習させたモデルに、取得したカメラ画像を入力すると、目標ハンドル角が出力される。ノートPCはデバッグ用で、計算は車に搭載されているRaspberry Piで全て行われている。 pic.twitter.com/behONP2LMQ
2018-07-23 07:51:11JetsonTX2 で OpenCV オンボードカメラからリアルタイムでcannyDetection pic.twitter.com/IvcWc0lVOz
2018-07-15 12:58:25TensorFlow上で動くPython向けライブラリKerasを使ったOSS「DonkeyCar」を組んでみた。Raspberry Pi で動くお手軽マシン。まずは簡単なコースでテスト。カメラ画像から最適なハンドル角が計算される。事前にマニュアル運転でデータを取得、モデルはPCでオフライン計算した後、Piにセットしている。 pic.twitter.com/wPD0RVIzH0
2018-07-10 11:33:41