Translate

2020年1月30日木曜日

Donkeycar の lidar 実装を読み解く

DonkeycarにLidarを積んでみたいのだが、すでに donkeycar.parts.lidar.py にパーツクラスが用意されている。

用意されているのだけど..

とりあえず Veicleaddして動いているようにみえるのだけど..これであってるんだろうか..

ということでいつもどおりといえばいつもどおりなのだけど、 Donkeycar パッケージのソースコードをたどってみた(..でもコメント記述がぜんぜんないなあ..)。


donkeycar.parts.lidar.py の最初に RPLidar というパーツクラスが書かれているので動作しそうなレーザオブジェクトが Slamtec PRLidar であることはわかる。

run_threadedメソッドの引数がdistancesanglesか..

両方floatの配列になっていて、角度がangles[0]のときの壁までの距離が distances[0]、以下順番に..になってるらしい。おそらく配列数は同じで、スキャンした際の件数でこの配列サイズもことなりそうだ..



LidarPlot もパーツクラスで、runメソッドの引数がdistancesanglesで戻り値がframe、コンストラクタの引数 resolutionで指定した3色Imageオブジェクト..

つまり、点群データをもとにImageオブジェクト化したものを出力するパーツか..


で、BreezySLAMクラスは..runメソッドの引数がdistancesanglesに加えて、map_bytesか..引数は x, y, theta..ってことは平面座標系の(x, y)とDonkeycarの向きってことか..

SLAMのアルゴリズムはDonkeycarパッケージ本体には実装がなく、https://github.com/simondlevy/BreezySLAMRMHC_SLAM クラスを使っているらしい..

つまり、Donkeycarが提供するSLAMを使うには、まず BreezySLAMがどんなRMHC(Random-Mutation Hill-Climbing)探索アルゴリズムになっているか知らないといけないわけだ。

それはおいといて、先に次のパーツクラス BreezyMap は..初期化した配列を渡しているだけ?!

最後のMapToImgeは..バイト配列をnd.array化してるだけか..たぶんカメライメージのかわりにこの出力イメージでDonkeycarを動かせってってことか..


BreezySLAM https://github.com/simondlevy/BreezySLAMREADME.md もとりあえず翻訳してみたのが以下。

他の記事同様 at your own risk で参照のこと。

----
BreezySLAM

このリポジトリ https://github.com/simondlevy/BreezySLAM には 、Python で Lidar http://en.wikipedia.org/wiki/Lidar ベースのSLAM http://en.wikipedia.org/wiki/Simultaneous_localization_and_mapping の使用を開始するために必要なすべてのものが含まれています 。(Matlab、C ++、およびJavaのサポートもありますが、この種の作業ではPythonを使用する場合が多いため、これらの言語のコードを更新しなくなりました。)BreezySLAMはLinuxおよびMac OS X上のPython 3、LinuxおよびWindows上のC++で動作します。Python C 拡張を使用することにより、PythonおよびMatlabのバージョンをC ++と同じくらい高速に実行することができます。32ビットプラットフォームで最大の効率を実現するために、コードの計算集約的な部分でストリーミングSIMD 拡張機能(Intel)および NEON(ARMv7)を使用しています。

BreezySLAMは 、同僚の Ken Lambert http://home.wlu.edu/%7Elambertk/ が開発したグラフィカルユーザーインターフェイスへの Breezy http://home.wlu.edu/%7Elambertk/#Software アプローチ に触発されました。右上の画像は、BreezySLAM ユーザ https://www.linkedin.com/pulse/slam-your-robot-drone-python-150-lidar-chris-fotache によって作成された家のフロア全体のマッピングのサンプルです。

以下のコードサンプルで示されたとおり(Lidarパラメータ、マップサイズ(ピクセル)およびマッピング領域(メートル)を引数とするコンストラクタ、現時点のスキャンをもとに更新を行う `update` メソッド、現在のロボット位置を返す `getpos` メソッド、現在のマップをバイト配列として取得する `getmap` メソッド)、基本的なAPIは非常に単純です。

from breezyslam.algorithms import RMHC_SLAM
lidar = MyLidarModel()
mapbytes = bytearray(800*800)
slam = RMHC_SLAM(lidar, 800, 35)

while True:
    scan = readLidar()
    slam.update(scan)
    x, y, theta = slam.getpos(scan)
    slam.getmap(mapbytes)

オドメトリが利用可能な場合は、update メソッドに渡すこともできます。

Python環境へのインストール


BreezySLAMのインストールでは、一般的な distutils http://docs.python.org/2/distutils/introduction.html アプローチを使用してPythonパッケージをインストールするため、ファイルをダウンロードして解凍し、BreezySLAM/python に  cd し、以下のコマンドを実行します。

sudo python3 setup.py install

簡単なデモを見るには、 BreezySLAM/examplescd して、以下のコマンドを実行します。

make pytest

実行すると、ログファイル exp2.datLidarスキャンおよび走行距離データのマップとロボットの軌跡を示すPGMファイルが生成・表示されます 。Pythonイメージングライブラリ http://www.pythonware.com/products/pil/ がインストールされている場合は、代わりにPNGファイルを生成するスクリプト log2png.py を試すことができます。

PyRoboViz https://github.com/simondlevy/PyRoboViz がインストールされている場合、次のコマンドによりライブアニメーションを表示する事ができます。

make movie

Makefile の上部にあるパラメータ USE_ODOMETRY0(ゼロ)に設定することにより、走行距離測定をオフにできます。パラメータ RANDOM_SEED をコメントアウトすることにより、パーティクルフィルタ(モンテカルロ位置推定)をオフにできます。

その他の機能については、以下のコマンドを実行して確認してください。

pydoc3 breezyslam

コンポーネントクラス MapScan、および Position 、そしてdistanceScanToMap() メソッドを使用することにより、独自の新しいアルゴリズムとパーティクルフィルタを開発できます。

北陽 URG04LX によるテスト


Linuxの場合、 BreezyLidar http://home.wlu.edu/~levys/software/breezylidar/ パッケージ、OpenCV Pythonパッケージをインストールし、examples フォルダーでサンプルコード urgslam.py を試して ください。

GetSurreal XV Lidar によるテスト


BreezySLAMには、GetSurrealの安価な XV Lidar https://www.getsurreal.com/product/xv-lidar-sensor-mount-package の Pythonサポートが含まれています。試行には xvlidar https://github.com/simondlevy/xvlidar Pythonパッケージも必要です。両方のパッケージをインストールしたら、 BreezySLAM/examples フォルダで xvslam.py サンプルを実行できます。

SLAMTEC RPLidar A1 によるテスト


BreezySLAMには、SLAMTECHの安価なRPLidar A1 http://www.slamtec.com/en/lidar/a1 の Pythonサポートも含まれています。試行には rplidar https://github.com/SkoltechRobotics/rplidar Pythonパッケージも必要です。パッケージをインストールしたら、 BreezySLAM/examples フォルダで rpslam.py サンプルを実行できます。

Matlab 用インストール


64ビットWindows、Linux、Mac OS X上のMatlabでBreezySLAMが実行できます。matlab のディレクトリには3つのすべてのオペレーティングシステム用のコンパイル済みのバイナリを含め、必要なすべてのコードが含まれています。Matlabでの試行には、このディレクトリをパスに追加し、 examples ディレクトリに移動して、以下のように実行してください。

  >> logdemo('exp2', 1)

ソースコード修正や別のOSでの実行のためのビルドを行う場合、 matlab ディレクトリへ移動し、以下のように実行してください。

  >> make

Windows用バイナリを作成する際にトラブルに遭遇した場合、 これらの手順 http://www.mathworks.com/matlabcentral/answers/95039-why-does-the-sdk-7-1-installation-fail-with-an-installation-failed-message-on-my-windows-system が役に立ちます。

C++ 用インストール


BreezySLAM/cppcd して、以下のように実行してください。

sudo make install

これにより、 libbreezyslam シェアードライブラリが /usr/local/lib ディレクトリにデプロイされます。シェアードライブラリを他の場所に保持する場合 は、 Makefile の上部にある変数 LIBDIR を変更するだけです。~/.bashrc ファイルに次の行を追加する必要がある場合もあります。

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/lib

簡単なデモを見るには、 BreezySLAM/examplescd し、以下のように実行してください。

make cpptest

繰り返しになりますが、 /usr/local/lib を使用しない場合は、 Makefile の上部にある変数 LIBDIR を変更する必要があります。


Java用インストール


BreezySLAM/java/edu/wlu/cs/levy/breezyslam/algorithms および BreezySLAM/java/edu/wlu/cs/levy/breezyslam/components にある Makefile の変数 JDKINC にJDKインストール先を記述してくさだい。そしてそれらのディレクトリ内で make を実行してください。

簡単なデモを見るには、 BreezySLAM/examplescd し、以下のように実行してください。

make javatest


Windows用インストール時の注意


私や他の方々がWindows上でのインストールに苦労 http://stackoverflow.com/questions/2817869/error-unable-to-find-vcvarsall-bat したため、Windows上のPythonバージョンはサポートしなくなりました。もし試したい場合は、 ここ https://docs.python.org/2/extending/windows.html を参考にしてください。

Windows上のC++ライブラリを使ったビルドの際には、MinGWを使用しました。使用するC++コンパイラが何であれ、.dllファイルの場所を環境変数 PATH に追加する必要があります。

新規パーティクルフィルタの追加


BreezySLAMはCoreSLAM( tinySLAM https://openslam.org/tinyslam.html )コードベースで構築されているため、SLAMのマップ構築コンポーネントとパーティクルフィルタリング(モンテカルロ位置推定)コンポーネントを明確に分離しています。新規のパーティクルフィルターを追加するには、 breezyslam.algorithms.CoreSLAM クラスまたは  breezyslam.algorithms.SinglePositionSLAM クラスをサブクラス化し、関連メソッドを実装します。

著作権、ライセンス、質問


著作権やライセンス( Gnu LGPL https://www.gnu.org/licenses/lgpl.html ) に関する情報は、各ソースコードのヘッダに記載されています。

関係者


Suraj Bajracharya、Simon D. Levy、Matt Lubas、Alfredo Rwagaju

謝辞


この研究は、革新技術センタ(CRCF#MF14F-011-MS)からのCommonwealth Research Commercialization Fund助成金によって一部サポートされていました。このパッケージのデバッグとテストに協力してくれたOlin CollegeのMichael Searingに感謝いたします。

-----

ここでわかった重要なことは、動きそうなレータが北陽  URG04LXRPLidar A1、そしてGetSurreal XV Lidar
GetSurreal XV Lidarは実際どれが本体なのかわからないけど、まえの2つはてにはいりそうだ。

BreezySLAMのレーダ実装のちがいはどこで確定させているかをみるには breezyslam.algorithms.py を読めばいいってことらしい..

で、 breezyslam.algorithms.py のクラスと主要なメソッドの機能コメントを翻訳したのが、以下である。

----
breezyslam.algorithms パッケージ

CoreSLAM クラス

CoreSLAM クラスは、PositionMapScan、およびLaserクラスを使用する抽象クラス。

単純なCoreSLAM(tinySLAM)アルゴリズムの多様な具現実装を実行するために使用する。

  • 著者:Bruno Steux 、 Oussama El Hamzaoui
  • タイトル:CoreSLAM: Cコード200行以下のSLAMアルゴリズム
  • 書籍タイトル:11th International Conference on Control, Automation, Robotics and Vision, ICARCV 2010, Singapore, 7-10 December 2010, Proceedings
  • ページ:1975-1979
  • 出版元:IEEE
  • 年:2010
具現クラスでは、点群(パーティクルクラウド)とマップ(should_update_maptrueの場合)を更新するメソッド _updateMapAndPointcloud(scan_mm, dxy_mm, dtheta_degrees, should_update_map) の実装が必要となる。

メソッド init(self, laser, map_size_pixels, map_size_meters, map_quality=_DEFAULT_MAP_QUALITY , hole_width_mm=_DEFAULT_HOLE_WIDTH_MM)

新しいLidarおよび走行距離データでの更新に適したCoreSLAMオブジェクトを作成する。

  • laser : Lidarユニットの仕様を表すレーザーオブジェクト
  • map_size_pixels :ピクセル単位の正方形マップのサイズ
  • map_size_meters :メートル単位の正方形マップのサイズ
  • map_quality : マップへのスキャンの統合速度を0〜255の値で指定
  • hole_width_mm : 障害物(壁)の幅を決定する

メソッド update(self, scans_mm, pose_change, scan_angles_degrees=None, should_update_map=True)

スキャン情報と走行距離を更新し、具現クラス側で独自実装された _updateMapAndPointcloud メソッドを呼び出して独自変更処理を行う。
  • scan_mm : Lidarスキャン値のリスト、そのカウントはCoreSlamコンストラクタに渡されるLaserオブジェクトの属性 scan_size で指定される
  • pose_change : オドメトリから計算されたタプル (dxy_mm, dtheta_degrees, dt_seconds)
  • scan_angles_degrees : scans_mm の距離に対応する角度のオプションリスト
  • should_update_map :マップを更新するかどうか(真偽値)

メソッド getmap(self, mapbytes)

bytearray(バイト配列) mapbytes を現在のマップピクセルで埋める。bytearray 長は、CoreSLAM .__ init __() に渡される引数 map_size_pixels の2乗となる。

  • mapbytes : 現在のマップピクセル(バイト配列)

メソッド setmap(self, mapbytes)

現在のマップピクセルを引数で指定したbytearray(バイト配列)の値に設定する。bytearray長は、 CoreSLAM .__ init __() に渡される引数 map_size_pixels の2乗となる
  • mapbytes : セットするマップピクセル(バイト配列)

クラス SinglePositionSLAM(CoreSLAM)

SinglePositionSLAMは、単一のポイント(位置)を持つポイントクラウドを使用して CoreSLAM を実装する抽象クラス。 具現クラスでは、_getNewPosition(self、start_position) メソッドを提供して、開始位置からの検索に基づいて新しい位置を計算する実装を行う必要がある。

メソッド _updateMapAndPointcloud(self, dxy_mm, dtheta_degrees, should_update_map)

マップとポイントクラウド(パーティクルクラウド)を更新する。 CoreSLAM.update() によって自動的に呼び出される。

速度は、タプル (dxy_mm, dtheta_degrees, dt_seconds) 形式(引数として指定する)。

メソッド getpos(self)

現在の位置をタプル(x_mm, y_mm, theta_degrees) として返却する。

クラス RMHC_SLAM(SinglePositionSLAM)

クラス RMHC_SLAM は、ランダム突然変異ヒルクライミング(RMHC:Random-Mutation Hill-Climbing)検索を使った、(親でもある)抽象クラスSinglePositionSLAM_getNewPosition() メソッド実装を提供する。なお効率化のために、独自の内部擬似乱数ジェネレータを使用している。

メソッド init(self, laser, map_size_pixels, map_size_meters, map_quality=_DEFAULT_MAP_QUALITY, hole_width_mm=_DEFAULT_HOLE_WIDTH_MM, random_seed=None, sigma_xy_mm=_DEFAULT_SIGMA_XY_MM, sigma_theta_degrees=_DEFAULT_SIGMA_THETA_DEGREES, max_search_iter=_DEFAULT_MAX_SEARCH_ITER)

新しい Lidar および走行距離データによる更新に適した RMHCSlam オブジェクトを作成します。

  • laser : Lidarの仕様を表す Lidar オブジェクト
  • map_size_pixels :ピクセル単位の正方形マップのサイズ
  • map_size_meters :正方形マップのサイズ(メートル単位)
  • map_quality : 0〜255の値を指定して、マップへのスキャンの統合速度を決める
  • hole_width_mm :障害物(壁)の幅を決定する
  • random_seed :再現可能な結果をサポートするための引数。 指定されていない場合のデフォルトはシステム時間となる
  • sigma_xy_mm :RMHC検索の位置の (X, Y) コンポーネントの正規分布の標準偏差をミリメートル単位で指定
  • sigma_theta_degrees :RMHC検索の位置の回転成分の正規分布の標準偏差を度数で指定する
  • max_search_iter :RMHC検索の最大反復回数を指定

メソッド _getNewPosition(self, start_position)

親クラス SinglePositionSLAM が使用する _getNewPosition() メソッドの実装を提供する。 ランダム突然変異ヒルクライミング(RMHC)検索を使用して、開始位置に基づいてより適切な位置を探索する。

クラス Deterministic_SLAM(SinglePositionSLAM)

クラス SinglePositionSLAMが使用する _getNewPosition() メソッドを、検索開始位置をコピーするだけの実装で提供する具現クラス。

メソッド init(self, laser, map_size_pixels, map_size_meters, map_quality=_DEFAULT_MAP_QUALITY, hole_width_mm=_DEFAULT_HOLE_WIDTH_MM)

新しいLidarおよび走行距離データでの更新に適した Deterministic_Slamオブジェクトを作成する。

  • laser :レーザ仕様を表す Lidar オブジェクト
  • map_size_pixels :ピクセル単位の正方形マップのサイズ
  • map_size_meters :正方形マップのサイズ(メートル単位)
  • map_quality : 0〜255の値で、マップへのスキャンの統合速度を指定
  • hole_width_mm :障害物(壁)の幅を決める

メソッド _getNewPosition(self, start_position)

開始位置のコピーを返却する。
----

DonkeycarのRPLidarクラスをそのままつかえばA1M8が動きそうだな..
Amazonで調べると去年5万円弱だったのが1万円台にまで下がってる..

..ちょっと、ためしてみるか..


2020年1月22日水曜日

GPUなしProxy環境下のWindows10マシン上でAutoware/ROS Kineticを動かす手順

Windows10 の WSL で動かす場合、systemd や VOLUME マウントする UNIXドメインソケットなどの問題がありWSL内でDockerを動かすことがめんどくさい。

ので、ホストOS側でXサーバを立ち上げ、ソースコードビルドを行ってAutowareを動かしてみた。手順はそこらへんの記事があるだろうと、見てみたのだけど、GitHubからGitLabへ移動したことなどもあり、そのまま動作するものを見つけることができず、試行錯誤の結果以下の手順でようやく動作した。

【注意】以下の手順は2020年1月21日時点のもので、バージョン更新などにより動作しなくなる可能性があるため、参考にする場合は at your own risk でお願いします。

■インストール


  • https://sourceforge.net/projects/vcxsrv/ からVcXrv をダウンロードしてインストール
  • Microsoft StoreからUbuntu 16.04 LTS をダウンロードして起動
  • パスワードを設定
  • vi ~/.bashrc を実行して、以下の5行を追加
export HTTP_PROXY=http://proxy.server:8080/
export HTTPS_PROXY=http://proxy.server:8080/
export http_proxy=$HTTP_PROXY
export https_proxy=$HTTPS_PROXY
export DISPLAY=localhost:0.0
  • source ~/.bashrc
  • vi /etc/apt/apt.conf を実行して以下の2行を追加
Acquire::http::proxy "http://proxy.server:8080/";
Acquire::http::proxy "http://proxy.server:8080/";
  • sudo apt update && sudo apt upgrade -y
  • sudo apt install -y lxde
  • /mnt/c/Program\ Files/VcXsrv/vcxsrv.exe :0 -rootless -clipboard   -noprimary -wgl -xkblayout jp -xkbmodel jp106 &
  • startlxde
  • Xが起動したら、左下のツバメ(?)アイコンをクリック
  • AccessoriesのByobu Terminal を起動
  • sudo sh -c 'echo "deb http://packages.ros.org/ros/ubuntu $(lsb_release -sc) main" > /etc/apt/sources.list.d/ros-latest.list'
  • wget http://packages.ros.org/ros.key -O - | sudo apt-key add -
  • sudo apt update
  • sudo apt upgrade -y
  • sudo apt install -y ros-kinetic-desktop-full
  • sudo rosdep init
  • rosdep update
  • echo "source /opt/ros/kinetic/setup.bash" >> ~/.bashrc
  • source ~/.bashrc
  • sudo apt install -y python-rosinstall
  • sudo apt install -y qt5-default
  • sudo apt-get install -y python-catkin-pkg python-rosdep python-wstool ros-$ROS_DISTRO-catkin libmosquitto-dev gksu
  • mkdir -p autoware.ai/src
  • cd autoware.ai
  • wget -O autoware.ai.repos "https://gitlab.com/autowarefoundation/autoware.ai/autoware/raw/1.12.0/autoware.ai.repos?inline=false"
  • vcs import src < autoware.ai.repos
  • rosdep update
  • rosdep install -y --from-paths src --ignore-src --rosdistro $ROS_DISTRO
  • pip3 install -U setuptools
  • colcon build --cmake-args -DCMAKE_BUILD_TYPE=Release

make -j2 もかかったが、最後のコマンドだけでも合計2時間半かかった(1回目の途中でXが固まって実行し直した)。

AutowareのDockerコンテナのサイズは異常にでかい。ので、3GB上限のSIMルータとかではすぐにギガが枯渇する。可能な限り光や企業LAN内でのインストールをすすめる。

AWS Greengrass を使ったあと、ROSをインストールすると、AWS Greengrass を設計した人がROS(というか分散ROSかな)を模倣していることに気づく。

DonkeycarアプリケーションがAwtowareに類似していることもわかる。Pub-Subモデルをベースにせず、1つのコンピュータ完結にするため通信をやめてViechleフレームワークという簡略化した実装に替えているのだ。Donkeycarを構成するソフトウェアスタックもAutoware/ROSに似ている。catkin関連がdonkeyコマンドだったり、rosbagがtubデータだったり、トピック名がV.memのキー名だったり..

複数の実装を学習すると、AWSやAWF、Donkeycarコミッタの思想の違いが俯瞰できて実に興味深い。

2020年1月9日木曜日

Jetson Nano へ Donkeycar アプリケーションをインストール方法のメモ(2019/01/09時点)

■必要なもの

  • Jetson Nano Developent Kit(Jetson開発ボード)+USBケーブル
  • 5V2A以上を出力するUSB ACアダプタ
  • インターネット接続可能なAterm MR05LN+USBケーブル
  • HDMIモニタ+HDMIケーブル
  • USB日本語キーボード
  • USBマウス
  • SDカード

■セットアップ手順

  • https://developer.nvidia.com/embedded/learn/get-started-jetson-nano-devkit#write にある「Jetson Nano Development Kit SD Card Image」のリンクを選択して圧縮ファイルをダウンロード
  • ダウンロードしたファイルからisoイメージファイルを展開
  • SDカードをフォーマット
  • Echer https://www.balena.io/etcher をダウンロード
  • Echerを実行し、isoイメージファイルをSDカードへ書き込み(書き込み完了すると大量のダイアログが出るが、すべて閉じる)
  • SDカードを取り出し
  • Jetson NanoにUSBキーボード(日本語)、モニタ(HDMI)、USBマウスを接続
  • Jetson Nanoのmicro-USBコネクタとACアダプタ(5V2A)をつなぐ
  • ライセンスを了承する場合、チェックボックスにチェックを入れContinueボタン押下
  • 日本語を選択し次へ
  • キーボードは日本語・日本を選択し次へ
  • ユーザ情報sudo可能アカウント情報を入力し次へ
  • 変更せず次へ
  • セットアップを実行
  • 完了したらウィザードの右上ボタンを押し、ウィザードを終了させる
  • 左上のUbuntuボタンを押し、検索フィールドに「term」といれ、最初のアイコンを選択
  • sudo fallocate -l 4G /var/swapfile
  • sudo chmod 600 /var/swapfile
  • sudo mkswap /var/swapfile
  • sudo swapon /var/swapfile
  • sudo bash -c 'echo "/var/swapfile swap swap defaults 0 0" >> /etc/fstab'
  • sudo shutdown -h now
  • ACアダプタを抜く
  • Aterm MR05LNの電源を入れる
  • Aterm MR05LNをJetson NanoのUSBコネクタに接続
  • ACアダプタをコンセントに接続
  • 起動したら先程のユーザ情報を入れログイン
  • 左上のUbuntuボタンを押し、最初のアイコンを選択
  • sudo apt update
  • sudo apt upgrade -y
  • sudo apt install build-essential python3 python3-dev python3-pip libhdf5-serial-dev hdf5-tools nano ntp -y
  • sudo apt install cmake unzip pkg-config -y
  • sudo apt install libjpeg-dev libpng-dev libtiff-dev -y
  • sudo apt install libavcodec-dev libavformat-dev libswscale-dev libv4l-dev -y
  • sudo apt install libxvidcore-dev libx264-dev -y
  • sudo apt install libgtk-3-dev -y
  • sudo apt install libatlas-base-dev gfortran -y
  • sudo apt install python3-numpy -y
  • cd ~/
  • pip3 install virtualenv
  • python3 -m virtualenv -p python3 env --system-site-packages && echo "source env/bin/activate" >> ~/.bashrc
     && source ~/.bashrc 
  • mkdir projects/cv2
  • cd ~/projects/cv2
  • wget -O opencv.zip https://github.com/opencv/opencv/archive/4.1.0.zip
  • wget -O opencv_contrib.zip https://github.com/opencv/opencv_contrib/archive/4.1.0.zip
  • unzip opencv.zip
  • unzip opencv_contrib.zip
  • mv opencv-4.1.0 opencv
  • mv opencv_contrib-4.1.0 opencv_contrib
  • cd opencv
  • mkdir build
  • cd build
  • cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=/usr/local -D INSTALL_PYTHON_EXAMPLES=ON -D INSTALL_C_EXAMPLES=OFF -D OPENCV_ENABLE_NONFREE=ON -D OPENCV_EXTRA_MODULES_PATH=~/projects/cv2/opencv_contrib/modules  -D PYTHON_EXECUTABLE=~/env/bin/python -D BUILD_EXAMPLES=ON ../
  • make -j2
  • sudo make install
  • sudo ldconfig
  • cd /usr/local/lib/python3.6/site-packages/cv2/python-3.6
  • ls cv2.cpython-36m-* (ファイル名の確認)
  • mv cv2.cpython-36m-xxx-linux-gnu.so cv2.so (xxxは環境によってかわる)
  • cd ~/env/lib/python3.6/site-packages/
  • ln -s /usr/local/lib/python3.6/site-packages/cv2/python-3.6/cv2.so cv2.so
  • cd ~/projects
  • git clone https://github.com/autorope/donkeycar
  • cd donkeycar
  • git checkout master
  • pip install -e .[nano]
  • pip install --extra-index-url https://developer.download.nvidia.com/compute/redist/jp/v42 tensorflow-gpu==1.13.1+nv19.3
  • donkey createcar --path ~/mycar
  • cp /usr/lib/python3.6/dist-packages/cv2.cpython-36m-aarch64-linux-gnu.so ~/mycar/


numpyはエラーになるので、pipではなくapt管理のパッケージをインストールする 
make -js は思っている以上に時間がかかる

2020年1月8日水曜日

Jetson Nano をWiFiでつなぐ方法を考える

年明けに、Jetson Nanoを手に入れた。

厳密には、Raspberry PiインターフェイスとしてブレイクアウトするJetson Nano 開発ボードを手に入れた。

この開発ボードにはEtherコネクタはついているがWiFiは装備されていない。

ためしに手持ちのBuffalo製WiFi/BLEドングル BSBT 4D200BK をつないでみたが、なぜかSSIDが表示されない..
#ちなみに使用しているUbuntuはJetpackをそのまま使った

厳密にはsudo nmcli device wifi list しても、SSIDを隠しているWiFiルータだけしか表示されない..

どうも調べてみると、Jetpackが正式サポートされているのは
  • Intel 8265NGW Dualband Wireless AC M.2 2230 Device
  • Edimax EW-7811Un USB Wireless Networking Adapter
だけらしい..

JetpackはUbuntuベースだから、比較的新しめなデバイスでもつながるかなと思っていたが、アテが外れてしまった..

上記後者はUSBドングルのようだが、前者はPCIeだ。
一体どこにつなげるのか..とおもっていたら、Jetson Nano本体と開発ボードの間に刺すらしい..しかもサイズがそれほどないのでPCIeでも8265NGWでないと入らないのか..

上記のいずれかを入手すればつながるが、上記以外は独自デバイスドライバをGitHubなりで探し出すか、自分で作るかしなくてはならない..

もっと手近にあるもので..とおもって手元にあるAterm MR05LN をUSBケーブル経由で有線接続したら..つながった..

USB経由でWiFiが使えるようになった。

注意:JetpackをSDカードへ書き込み、最初に起動する際にAterm MR05LNを接続するとブートしない
注意:最初にログインした際の画面ウィザードを終了させないとsudo apt updateしてもエラーになる
注意:クレードル経由(ルータモード)でEtherケーブルを使ってつないだがNGだった。どうもUSBテザリングONだけしか動作しないらしい..

もしやとおもい、HUAWEI-13EAもつないでみたが、こっちはだめだった..

Aterm MR05LNなら最近宣伝している楽天モバイルでも買えるから、この方法なら手っ取り早そうだ..

でも..IoTデバイスとしては、USBコネクタを一つ消費するし(ドングルもそうだけど)、ルータ自体は独自給電だけど、USBデバイスとしてつなぐとおそらくUSB給電になるとおもうので、電源への負担が大きい..ただでさえJetson Nanoの5V電源の動作アンペアがRaspberry Piより大きいので、正直負担だ..

それなら、Buffalo製ホテルルータ(ざっくりいうと有線Etherの口をモバイルルータ化する) WMR-433W2-BK とかでEtherコネクタを消費させたほうがマシかも知れない..さて、どうするかな..





p.s.

ちなみに楽天モバイルで購入したAterm MR05LNだが、初期設定ではAPN設定があやまっていて、自分でAPN設定し直さないとつながらなかった..

 SIMカードがへばりついている紙に「rmobile.jp」にしろって書いているのに、デフォルト設定では「rakuten.jp」になっていた..

カード審査に30分かけるくせに、疎通動作すらしてないで渡すかね、楽天モバイルグランツリー武蔵小○店は..

しかも、オプション品のクレードルおいてなかったし..




p.s. その2

その後、正常動作リストにあったIntel 8256NGW PCIeボードを入手。
つないでみたら、SSIDが全部見えるようになり、すなおにWiFi接続できてしまった..




..やっぱドキュメントを先に読むべきだな..

ClaudeをOpenAI O1のように思考させるDifyサンプルを試す

 Difyの「探索」タブにはさまざまなサンプルが載っており、その1つに「Thinking Claude (OpenAI O1 Alternative)」というものがある。   このサンプルがどういうものか、未だに自分でも解けない以下の問題をためしに聞いてみることにした。 『人類の...