3次元点群処理の例(Open3D ライブラリ)

1. エグゼクティブサマリー

本記事では,Open3D ライブラリを用いた3次元点群処理の実践的な例を8つのパターンで解説する。Open3D は,3次元データの入出力,ダウンサンプリング,外れ値除去,法線推定,ポリゴン変換,セグメンテーション,クラスタリング等の機能を提供する強力なライブラリである。

各パターンは以下の処理を段階的に実装している:

各パターンは,室内環境(Redwood,デモデータ,リビングルーム),屋外環境(Eagle彫刻,噴水,Semantic3D大規模データ),3Dスキャンデータ(Stanford Armadillo,Bunny)等,11種類の多様なデータセットから選択できる。

本記事の8つのコードは,共通部分(import文,データ取得関数,データセット定義,読み込み処理)を完全に統一し,各パターン固有の処理部分との境界を明確に区分している。

2. 前準備(必要ソフトウェアの入手)

ここでは、最低限の事前準備について説明する。機械学習や深層学習を行う場合は、NVIDIA CUDA、Visual Studio、Cursorなどを追加でインストールすると便利である。これらについては別ページ https://www.kkaneko.jp/cc/dev/aiassist.htmlで詳しく解説しているので、必要に応じて参照してください。

Python 3.12 のインストール(Windows 上) [クリックして展開]

以下のいずれかの方法で Python 3.12 をインストールする。Python がインストール済みの場合、この手順は不要である。

方法1:winget によるインストール

管理者権限コマンドプロンプトで以下を実行する。管理者権限のコマンドプロンプトを起動するには、Windows キーまたはスタートメニューから「cmd」と入力し、表示された「コマンドプロンプト」を右クリックして「管理者として実行」を選択する。

winget install -e --id Python.Python.3.12 --scope machine --silent --accept-source-agreements --accept-package-agreements --override "/quiet InstallAllUsers=1 PrependPath=1 AssociateFiles=1 InstallLauncherAllUsers=1"

--scope machine を指定することで、システム全体(全ユーザー向け)にインストールされる。このオプションの実行には管理者権限が必要である。インストール完了後、コマンドプロンプトを再起動すると PATH が自動的に設定される。

方法2:インストーラーによるインストール

  1. Python 公式サイト(https://www.python.org/downloads/)にアクセスし、「Download Python 3.x.x」ボタンから Windows 用インストーラーをダウンロードする。
  2. ダウンロードしたインストーラーを実行する。
  3. 初期画面の下部に表示される「Add python.exe to PATH」に必ずチェックを入れてから「Customize installation」を選択する。このチェックを入れ忘れると、コマンドプロンプトから python コマンドを実行できない。
  4. 「Install Python 3.xx for all users」にチェックを入れ、「Install」をクリックする。

インストールの確認

コマンドプロンプトで以下を実行する。

python --version

バージョン番号(例:Python 3.12.x)が表示されればインストール成功である。「'python' は、内部コマンドまたは外部コマンドとして認識されていません。」と表示される場合は、インストールが正常に完了していない。

AIエディタ Windsurf のインストール(Windows 上) [クリックして展開]

Pythonプログラムの編集・実行には、AIエディタの利用を推奨する。ここでは、Windsurfのインストールを説明する。Windsurf がインストール済みの場合、この手順は不要である。

管理者権限コマンドプロンプトで以下を実行する。管理者権限のコマンドプロンプトを起動するには、Windows キーまたはスタートメニューから「cmd」と入力し、表示された「コマンドプロンプト」を右クリックして「管理者として実行」を選択する。

winget install -e --id Codeium.Windsurf --scope machine --accept-source-agreements --accept-package-agreements --custom "/SUPPRESSMSGBOXES /MERGETASKS=!runcode,addtopath,associatewithfiles,!desktopicon"
powershell -Command "$env:Path=[System.Environment]::GetEnvironmentVariable('Path','Machine')+';'+[System.Environment]::GetEnvironmentVariable('Path','User'); windsurf --install-extension MS-CEINTL.vscode-language-pack-ja --force; windsurf --install-extension ms-python.python --force; windsurf --install-extension Codeium.windsurfPyright --force"

--scope machine を指定することで、システム全体(全ユーザー向け)にインストールされる。このオプションの実行には管理者権限が必要である。インストール完了後、コマンドプロンプトを再起動すると PATH が自動的に設定される。

関連する外部ページ

Windsurf の公式ページ: https://windsurf.com/

Open3D ライブラリのインストール [クリックして展開]

管理者権限コマンドプロンプトで以下を実行する。管理者権限のコマンドプロンプトを起動するには、Windows キーまたはスタートメニューから「cmd」と入力し、表示された「コマンドプロンプト」を右クリックして「管理者として実行」を選択する。

python -m pip install -U open3d numpy pandas py7zr

3. 実行のための準備とその確認手順(Windows 前提)

3.1 プログラムファイルの準備

第5章に掲載する8つのソースコードから,実行したいパターンを1つ選択し,テキストエディタ(メモ帳,Windsurf 等)に貼り付け,open3d_demo.py として保存する(文字コード:UTF-8)。

3.2 実行コマンド

コマンドプロンプトでファイルの保存先ディレクトリに移動し,以下を実行する。

python open3d_demo.py

実行すると,データセット選択画面が表示される。11種類のデータセットから番号(1〜9,A,B)を入力して選択する。

3.3 動作確認チェックリスト

確認項目期待される結果
プログラム起動時データセット選択画面が表示され,11種類の選択肢が番号付きで表示される
データセット番号入力後選択したデータの読み込みが開始され,点数が表示される
処理完了後3D可視化ウィンドウが開き,マウス操作で視点変更できる
大規模データ選択時ダウンロード・解凍メッセージが表示され,2回目以降は高速に読み込まれる

4. 概要・使い方・実行上の注意

Open3D ライブラリの主要機能

使用データ

以下の11種類のデータセットから選択できる。

キー	名称	環境	特徴
1	室内Redwood	室内	PCD・RGB色付き
2	室内デモ	室内	PCD・切り出しデモ
3	テーブルシーン	室内卓上	PCD・Sick LMS400 LiDAR
4	リビングルーム	室内	PLY・Redwood RGB-D
5	Eagle屋外彫刻	屋外	PLY・実計測
6	屋外噴水	屋外	RGB-D生成・ETH
7	Armadillo	スキャン	Stanford 3Dスキャン
8	Stanford Bunny	スキャン	Stanford 3Dスキャン
9	Semantic3D 教会	屋外rural	静的LiDAR・bildstein
A	Semantic3D 噴水広場	屋外rural	静的LiDAR・untermaederbrunnen
B	Semantic3D 大聖堂	屋外urban	静的LiDAR・domfountain

実行上の注意

5. ソースコード

以下に8つのパターンのソースコードを掲載する。各パターンは独立して動作する。共通部分は完全に統一されており,パターン固有の処理部分との境界が明確に区分されている。

パターン1:読み込み+表示

最も基本的なパターン。データセットを読み込み,3D可視化ウィンドウで表示する。

# ════════════════════════════════════════
# パターン1:読み込み+表示
# ════════════════════════════════════════

# ┌────────────────────────────────────┐
# │  共通部分:ライブラリインポート        │
# └────────────────────────────────────┘
import open3d as o3d, os, numpy as np, urllib.request as ur, pandas as pd

# ┌────────────────────────────────────┐
# │  共通部分:キャッシュディレクトリ設定  │
# └────────────────────────────────────┘
CACHE = os.path.expanduser("~/.cache/o3d_demo")
os.makedirs(CACHE, exist_ok=True)

# ┌────────────────────────────────────┐
# │  共通部分:データ取得関数              │
# └────────────────────────────────────┘
def fetch(url, fname):
    path = os.path.join(CACHE, fname)
    if not os.path.exists(path):
        print(f"  ダウンロード中: {fname} ...")
        ur.urlretrieve(url, path)
    return path

def load_fountain():
    d = o3d.data.SampleFountainRGBDImages()
    color = o3d.io.read_image(d.color_paths[0])
    depth = o3d.io.read_image(d.depth_paths[0])
    rgbd = o3d.geometry.RGBDImage.create_from_color_and_depth(
        color, depth, depth_trunc=4.0, convert_rgb_to_intensity=False)

    # デフォルトのPrimeSenseカメラパラメータを使用
    intrinsic = o3d.camera.PinholeCameraIntrinsic(
        o3d.camera.PinholeCameraIntrinsicParameters.PrimeSenseDefault)

    return o3d.geometry.PointCloud.create_from_rgbd_image(rgbd, intrinsic)

S3D = "https://share.phys.ethz.ch/~pf/semantic3d/data/point-clouds/training1/"

def load_semantic3d(url, fname):
    import py7zr
    arc = fetch(url, fname)
    txt = os.path.join(CACHE, fname.replace(".7z", ".txt"))
    if not os.path.exists(txt):
        print(f"  解凍中: {fname} ...")
        with py7zr.SevenZipFile(arc, "r") as z:
            z.extractall(CACHE)
    print(f"  読み込み中(大規模データ)...")
    df = pd.read_csv(txt, header=None, sep=r"\s+", dtype=np.float32)
    pcd = o3d.geometry.PointCloud()
    pcd.points = o3d.utility.Vector3dVector(df.iloc[:, :3].values)
    pcd.colors = o3d.utility.Vector3dVector(df.iloc[:, 4:7].values / 255.0)
    return pcd

# ┌────────────────────────────────────┐
# │  共通部分:データセット定義            │
# └────────────────────────────────────┘
PCL = "https://raw.githubusercontent.com/PointCloudLibrary/data/master/"
DATASETS = {
    "1": ("室内Redwood        (PCD・RGB色付き)",         lambda: o3d.io.read_point_cloud(o3d.data.PCDPointCloud().path), 0.02),
    "2": ("室内デモ            (PCD・切り出しデモ)",      lambda: o3d.io.read_point_cloud(o3d.data.DemoCropPointCloud().point_cloud_path), 0.02),
    "3": ("テーブルシーン      (PCD・Sick LMS400 LiDAR)", lambda: o3d.io.read_point_cloud(fetch(PCL + "tutorials/table_scene_lms400.pcd", "table_lms400.pcd")), 0.005),
    "4": ("リビングルーム      (PLY・Redwood RGB-D)",     lambda: o3d.io.read_point_cloud(o3d.data.LivingRoomPointClouds().paths[0]), 0.05),
    "5": ("Eagle屋外彫刻       (PLY・実計測)",            lambda: o3d.io.read_point_cloud(o3d.data.EaglePointCloud().path), 0.005),
    "6": ("屋外噴水            (RGB-D生成・ETH)",        lambda: load_fountain(), 0.02),
    "7": ("Armadillo           (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.ArmadilloMesh().path).sample_points_poisson_disk(50000), 2.0),
    "8": ("Stanford Bunny      (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.BunnyMesh().path).sample_points_poisson_disk(50000), 0.002),
    "9": ("Semantic3D 教会     (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "bildstein_station1_xyz_intensity_rgb.7z",            "bildstein_station1_xyz_intensity_rgb.7z"), 0.1),
    "A": ("Semantic3D 噴水広場 (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "untermaederbrunnen_station1_xyz_intensity_rgb.7z",   "untermaederbrunnen_station1_xyz_intensity_rgb.7z"), 0.1),
    "B": ("Semantic3D 大聖堂   (屋外urban・静的LiDAR)",   lambda: load_semantic3d(S3D + "domfountain_station3_xyz_intensity_rgb.7z",           "domfountain_station3_xyz_intensity_rgb.7z"), 0.1),
}

# ┌────────────────────────────────────┐
# │  共通部分:データセット選択と読み込み  │
# └────────────────────────────────────┘
print("データセット選択:\n" + "\n".join(f"  {k}: {v[0]}" for k, v in DATASETS.items()))
_, loader, voxel_size = DATASETS[input("番号: ").strip()]
pcd = loader()
print(f"読み込み完了: {len(pcd.points)} 点")

# ┌────────────────────────────────────┐
# │  パターン1固有の処理:表示のみ        │
# └────────────────────────────────────┘
o3d.visualization.draw_geometries([pcd], window_name="元の点群")

パターン2:読み込み+ダウンサンプリング+表示

ボクセルダウンサンプリングにより点群を間引き,処理を高速化する。

# ════════════════════════════════════════
# パターン2:読み込み+ダウンサンプリング+表示
# ════════════════════════════════════════

# ┌────────────────────────────────────┐
# │  共通部分:ライブラリインポート        │
# └────────────────────────────────────┘
import open3d as o3d, os, numpy as np, urllib.request as ur, pandas as pd

# ┌────────────────────────────────────┐
# │  共通部分:キャッシュディレクトリ設定  │
# └────────────────────────────────────┘
CACHE = os.path.expanduser("~/.cache/o3d_demo")
os.makedirs(CACHE, exist_ok=True)

# ┌────────────────────────────────────┐
# │  共通部分:データ取得関数              │
# └────────────────────────────────────┘
def fetch(url, fname):
    path = os.path.join(CACHE, fname)
    if not os.path.exists(path):
        print(f"  ダウンロード中: {fname} ...")
        ur.urlretrieve(url, path)
    return path

def load_fountain():
    d = o3d.data.SampleFountainRGBDImages()
    color = o3d.io.read_image(d.color_paths[0])
    depth = o3d.io.read_image(d.depth_paths[0])
    rgbd = o3d.geometry.RGBDImage.create_from_color_and_depth(
        color, depth, depth_trunc=4.0, convert_rgb_to_intensity=False)

    # デフォルトのPrimeSenseカメラパラメータを使用
    intrinsic = o3d.camera.PinholeCameraIntrinsic(
        o3d.camera.PinholeCameraIntrinsicParameters.PrimeSenseDefault)

    return o3d.geometry.PointCloud.create_from_rgbd_image(rgbd, intrinsic)

S3D = "https://share.phys.ethz.ch/~pf/semantic3d/data/point-clouds/training1/"

def load_semantic3d(url, fname):
    import py7zr
    arc = fetch(url, fname)
    txt = os.path.join(CACHE, fname.replace(".7z", ".txt"))
    if not os.path.exists(txt):
        print(f"  解凍中: {fname} ...")
        with py7zr.SevenZipFile(arc, "r") as z:
            z.extractall(CACHE)
    print(f"  読み込み中(大規模データ)...")
    df = pd.read_csv(txt, header=None, sep=r"\s+", dtype=np.float32)
    pcd = o3d.geometry.PointCloud()
    pcd.points = o3d.utility.Vector3dVector(df.iloc[:, :3].values)
    pcd.colors = o3d.utility.Vector3dVector(df.iloc[:, 4:7].values / 255.0)
    return pcd

# ┌────────────────────────────────────┐
# │  共通部分:データセット定義            │
# └────────────────────────────────────┘
PCL = "https://raw.githubusercontent.com/PointCloudLibrary/data/master/"
DATASETS = {
    "1": ("室内Redwood        (PCD・RGB色付き)",         lambda: o3d.io.read_point_cloud(o3d.data.PCDPointCloud().path), 0.02),
    "2": ("室内デモ            (PCD・切り出しデモ)",      lambda: o3d.io.read_point_cloud(o3d.data.DemoCropPointCloud().point_cloud_path), 0.02),
    "3": ("テーブルシーン      (PCD・Sick LMS400 LiDAR)", lambda: o3d.io.read_point_cloud(fetch(PCL + "tutorials/table_scene_lms400.pcd", "table_lms400.pcd")), 0.005),
    "4": ("リビングルーム      (PLY・Redwood RGB-D)",     lambda: o3d.io.read_point_cloud(o3d.data.LivingRoomPointClouds().paths[0]), 0.05),
    "5": ("Eagle屋外彫刻       (PLY・実計測)",            lambda: o3d.io.read_point_cloud(o3d.data.EaglePointCloud().path), 0.005),
    "6": ("屋外噴水            (RGB-D生成・ETH)",        lambda: load_fountain(), 0.02),
    "7": ("Armadillo           (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.ArmadilloMesh().path).sample_points_poisson_disk(50000), 2.0),
    "8": ("Stanford Bunny      (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.BunnyMesh().path).sample_points_poisson_disk(50000), 0.002),
    "9": ("Semantic3D 教会     (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "bildstein_station1_xyz_intensity_rgb.7z",            "bildstein_station1_xyz_intensity_rgb.7z"), 0.1),
    "A": ("Semantic3D 噴水広場 (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "untermaederbrunnen_station1_xyz_intensity_rgb.7z",   "untermaederbrunnen_station1_xyz_intensity_rgb.7z"), 0.1),
    "B": ("Semantic3D 大聖堂   (屋外urban・静的LiDAR)",   lambda: load_semantic3d(S3D + "domfountain_station3_xyz_intensity_rgb.7z",           "domfountain_station3_xyz_intensity_rgb.7z"), 0.1),
}

# ┌────────────────────────────────────┐
# │  共通部分:データセット選択と読み込み  │
# └────────────────────────────────────┘
print("データセット選択:\n" + "\n".join(f"  {k}: {v[0]}" for k, v in DATASETS.items()))
_, loader, voxel_size = DATASETS[input("番号: ").strip()]
pcd = loader()
print(f"読み込み完了: {len(pcd.points)} 点")

# ┌────────────────────────────────────┐
# │  パターン2固有の処理:ダウンサンプリング  │
# └────────────────────────────────────┘
pcd = pcd.voxel_down_sample(voxel_size)
print(f"ダウンサンプリング後: {len(pcd.points)} 点")
o3d.visualization.draw_geometries([pcd], window_name="ダウンサンプリング後")

パターン3:読み込み+外れ値除去+表示

統計的外れ値除去により,ノイズ点を除去して点群の品質を向上させる。

# ════════════════════════════════════════
# パターン3:読み込み+外れ値除去+表示
# ════════════════════════════════════════

# ┌────────────────────────────────────┐
# │  共通部分:ライブラリインポート        │
# └────────────────────────────────────┘
import open3d as o3d, os, numpy as np, urllib.request as ur, pandas as pd

# ┌────────────────────────────────────┐
# │  共通部分:キャッシュディレクトリ設定  │
# └────────────────────────────────────┘
CACHE = os.path.expanduser("~/.cache/o3d_demo")
os.makedirs(CACHE, exist_ok=True)

# ┌────────────────────────────────────┐
# │  共通部分:データ取得関数              │
# └────────────────────────────────────┘
def fetch(url, fname):
    path = os.path.join(CACHE, fname)
    if not os.path.exists(path):
        print(f"  ダウンロード中: {fname} ...")
        ur.urlretrieve(url, path)
    return path

def load_fountain():
    d = o3d.data.SampleFountainRGBDImages()
    color = o3d.io.read_image(d.color_paths[0])
    depth = o3d.io.read_image(d.depth_paths[0])
    rgbd = o3d.geometry.RGBDImage.create_from_color_and_depth(
        color, depth, depth_trunc=4.0, convert_rgb_to_intensity=False)

    # デフォルトのPrimeSenseカメラパラメータを使用
    intrinsic = o3d.camera.PinholeCameraIntrinsic(
        o3d.camera.PinholeCameraIntrinsicParameters.PrimeSenseDefault)

    return o3d.geometry.PointCloud.create_from_rgbd_image(rgbd, intrinsic)

S3D = "https://share.phys.ethz.ch/~pf/semantic3d/data/point-clouds/training1/"

def load_semantic3d(url, fname):
    import py7zr
    arc = fetch(url, fname)
    txt = os.path.join(CACHE, fname.replace(".7z", ".txt"))
    if not os.path.exists(txt):
        print(f"  解凍中: {fname} ...")
        with py7zr.SevenZipFile(arc, "r") as z:
            z.extractall(CACHE)
    print(f"  読み込み中(大規模データ)...")
    df = pd.read_csv(txt, header=None, sep=r"\s+", dtype=np.float32)
    pcd = o3d.geometry.PointCloud()
    pcd.points = o3d.utility.Vector3dVector(df.iloc[:, :3].values)
    pcd.colors = o3d.utility.Vector3dVector(df.iloc[:, 4:7].values / 255.0)
    return pcd

# ┌────────────────────────────────────┐
# │  共通部分:データセット定義            │
# └────────────────────────────────────┘
PCL = "https://raw.githubusercontent.com/PointCloudLibrary/data/master/"
DATASETS = {
    "1": ("室内Redwood        (PCD・RGB色付き)",         lambda: o3d.io.read_point_cloud(o3d.data.PCDPointCloud().path), 0.02),
    "2": ("室内デモ            (PCD・切り出しデモ)",      lambda: o3d.io.read_point_cloud(o3d.data.DemoCropPointCloud().point_cloud_path), 0.02),
    "3": ("テーブルシーン      (PCD・Sick LMS400 LiDAR)", lambda: o3d.io.read_point_cloud(fetch(PCL + "tutorials/table_scene_lms400.pcd", "table_lms400.pcd")), 0.005),
    "4": ("リビングルーム      (PLY・Redwood RGB-D)",     lambda: o3d.io.read_point_cloud(o3d.data.LivingRoomPointClouds().paths[0]), 0.05),
    "5": ("Eagle屋外彫刻       (PLY・実計測)",            lambda: o3d.io.read_point_cloud(o3d.data.EaglePointCloud().path), 0.005),
    "6": ("屋外噴水            (RGB-D生成・ETH)",        lambda: load_fountain(), 0.02),
    "7": ("Armadillo           (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.ArmadilloMesh().path).sample_points_poisson_disk(50000), 2.0),
    "8": ("Stanford Bunny      (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.BunnyMesh().path).sample_points_poisson_disk(50000), 0.002),
    "9": ("Semantic3D 教会     (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "bildstein_station1_xyz_intensity_rgb.7z",            "bildstein_station1_xyz_intensity_rgb.7z"), 0.1),
    "A": ("Semantic3D 噴水広場 (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "untermaederbrunnen_station1_xyz_intensity_rgb.7z",   "untermaederbrunnen_station1_xyz_intensity_rgb.7z"), 0.1),
    "B": ("Semantic3D 大聖堂   (屋外urban・静的LiDAR)",   lambda: load_semantic3d(S3D + "domfountain_station3_xyz_intensity_rgb.7z",           "domfountain_station3_xyz_intensity_rgb.7z"), 0.1),
}

# ┌────────────────────────────────────┐
# │  共通部分:データセット選択と読み込み  │
# └────────────────────────────────────┘
print("データセット選択:\n" + "\n".join(f"  {k}: {v[0]}" for k, v in DATASETS.items()))
_, loader, voxel_size = DATASETS[input("番号: ").strip()]
pcd = loader()
print(f"読み込み完了: {len(pcd.points)} 点")

# ┌────────────────────────────────────┐
# │  パターン3固有の処理:外れ値除去      │
# └────────────────────────────────────┘
pcd, _ = pcd.remove_statistical_outlier(nb_neighbors=20, std_ratio=2.0)
print(f"外れ値除去後: {len(pcd.points)} 点")
o3d.visualization.draw_geometries([pcd], window_name="外れ値除去後")

パターン4:読み込み+法線推定+結果表示

共分散分析により各点の法線方向を推定し,可視化する。法線はポリゴン変換の前処理として重要である。

# ════════════════════════════════════════
# パターン4:読み込み+法線推定+結果表示
# ════════════════════════════════════════

# ┌────────────────────────────────────┐
# │  共通部分:ライブラリインポート        │
# └────────────────────────────────────┘
import open3d as o3d, os, numpy as np, urllib.request as ur, pandas as pd

# ┌────────────────────────────────────┐
# │  共通部分:キャッシュディレクトリ設定  │
# └────────────────────────────────────┘
CACHE = os.path.expanduser("~/.cache/o3d_demo")
os.makedirs(CACHE, exist_ok=True)

# ┌────────────────────────────────────┐
# │  共通部分:データ取得関数              │
# └────────────────────────────────────┘
def fetch(url, fname):
    path = os.path.join(CACHE, fname)
    if not os.path.exists(path):
        print(f"  ダウンロード中: {fname} ...")
        ur.urlretrieve(url, path)
    return path

def load_fountain():
    d = o3d.data.SampleFountainRGBDImages()
    color = o3d.io.read_image(d.color_paths[0])
    depth = o3d.io.read_image(d.depth_paths[0])
    rgbd = o3d.geometry.RGBDImage.create_from_color_and_depth(
        color, depth, depth_trunc=4.0, convert_rgb_to_intensity=False)

    # デフォルトのPrimeSenseカメラパラメータを使用
    intrinsic = o3d.camera.PinholeCameraIntrinsic(
        o3d.camera.PinholeCameraIntrinsicParameters.PrimeSenseDefault)

    return o3d.geometry.PointCloud.create_from_rgbd_image(rgbd, intrinsic)

S3D = "https://share.phys.ethz.ch/~pf/semantic3d/data/point-clouds/training1/"

def load_semantic3d(url, fname):
    import py7zr
    arc = fetch(url, fname)
    txt = os.path.join(CACHE, fname.replace(".7z", ".txt"))
    if not os.path.exists(txt):
        print(f"  解凍中: {fname} ...")
        with py7zr.SevenZipFile(arc, "r") as z:
            z.extractall(CACHE)
    print(f"  読み込み中(大規模データ)...")
    df = pd.read_csv(txt, header=None, sep=r"\s+", dtype=np.float32)
    pcd = o3d.geometry.PointCloud()
    pcd.points = o3d.utility.Vector3dVector(df.iloc[:, :3].values)
    pcd.colors = o3d.utility.Vector3dVector(df.iloc[:, 4:7].values / 255.0)
    return pcd

# ┌────────────────────────────────────┐
# │  共通部分:データセット定義            │
# └────────────────────────────────────┘
PCL = "https://raw.githubusercontent.com/PointCloudLibrary/data/master/"
DATASETS = {
    "1": ("室内Redwood        (PCD・RGB色付き)",         lambda: o3d.io.read_point_cloud(o3d.data.PCDPointCloud().path), 0.02),
    "2": ("室内デモ            (PCD・切り出しデモ)",      lambda: o3d.io.read_point_cloud(o3d.data.DemoCropPointCloud().point_cloud_path), 0.02),
    "3": ("テーブルシーン      (PCD・Sick LMS400 LiDAR)", lambda: o3d.io.read_point_cloud(fetch(PCL + "tutorials/table_scene_lms400.pcd", "table_lms400.pcd")), 0.005),
    "4": ("リビングルーム      (PLY・Redwood RGB-D)",     lambda: o3d.io.read_point_cloud(o3d.data.LivingRoomPointClouds().paths[0]), 0.05),
    "5": ("Eagle屋外彫刻       (PLY・実計測)",            lambda: o3d.io.read_point_cloud(o3d.data.EaglePointCloud().path), 0.005),
    "6": ("屋外噴水            (RGB-D生成・ETH)",        lambda: load_fountain(), 0.02),
    "7": ("Armadillo           (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.ArmadilloMesh().path).sample_points_poisson_disk(50000), 2.0),
    "8": ("Stanford Bunny      (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.BunnyMesh().path).sample_points_poisson_disk(50000), 0.002),
    "9": ("Semantic3D 教会     (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "bildstein_station1_xyz_intensity_rgb.7z",            "bildstein_station1_xyz_intensity_rgb.7z"), 0.1),
    "A": ("Semantic3D 噴水広場 (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "untermaederbrunnen_station1_xyz_intensity_rgb.7z",   "untermaederbrunnen_station1_xyz_intensity_rgb.7z"), 0.1),
    "B": ("Semantic3D 大聖堂   (屋外urban・静的LiDAR)",   lambda: load_semantic3d(S3D + "domfountain_station3_xyz_intensity_rgb.7z",           "domfountain_station3_xyz_intensity_rgb.7z"), 0.1),
}

# ┌────────────────────────────────────┐
# │  共通部分:データセット選択と読み込み  │
# └────────────────────────────────────┘
print("データセット選択:\n" + "\n".join(f"  {k}: {v[0]}" for k, v in DATASETS.items()))
_, loader, voxel_size = DATASETS[input("番号: ").strip()]
pcd = loader()
print(f"読み込み完了: {len(pcd.points)} 点")

# ┌────────────────────────────────────┐
# │  パターン4固有の処理:法線推定        │
# └────────────────────────────────────┘
pcd.estimate_normals(o3d.geometry.KDTreeSearchParamHybrid(radius=voxel_size * 5, max_nn=30))
pcd.orient_normals_consistent_tangent_plane(100)
o3d.visualization.draw_geometries([pcd], window_name="法線推定後", point_show_normal=True)

パターン5:読み込み+ポリゴン変換+確認表示

点群からポリゴンメッシュを生成する。Alpha Shape,Ball Pivoting,Poissonの3つの手法を順次実行し,各手法の特徴を比較できる。

# ════════════════════════════════════════
# パターン5:読み込み+ポリゴン変換+確認表示
# ════════════════════════════════════════

# ┌────────────────────────────────────┐
# │  共通部分:ライブラリインポート        │
# └────────────────────────────────────┘
import open3d as o3d, os, numpy as np, urllib.request as ur, pandas as pd

# ┌────────────────────────────────────┐
# │  共通部分:キャッシュディレクトリ設定  │
# └────────────────────────────────────┘
CACHE = os.path.expanduser("~/.cache/o3d_demo")
os.makedirs(CACHE, exist_ok=True)

# ┌────────────────────────────────────┐
# │  共通部分:データ取得関数              │
# └────────────────────────────────────┘
def fetch(url, fname):
    path = os.path.join(CACHE, fname)
    if not os.path.exists(path):
        print(f"  ダウンロード中: {fname} ...")
        ur.urlretrieve(url, path)
    return path

def load_fountain():
    d = o3d.data.SampleFountainRGBDImages()
    color = o3d.io.read_image(d.color_paths[0])
    depth = o3d.io.read_image(d.depth_paths[0])
    rgbd = o3d.geometry.RGBDImage.create_from_color_and_depth(
        color, depth, depth_trunc=4.0, convert_rgb_to_intensity=False)

    # デフォルトのPrimeSenseカメラパラメータを使用
    intrinsic = o3d.camera.PinholeCameraIntrinsic(
        o3d.camera.PinholeCameraIntrinsicParameters.PrimeSenseDefault)

    return o3d.geometry.PointCloud.create_from_rgbd_image(rgbd, intrinsic)

S3D = "https://share.phys.ethz.ch/~pf/semantic3d/data/point-clouds/training1/"

def load_semantic3d(url, fname):
    import py7zr
    arc = fetch(url, fname)
    txt = os.path.join(CACHE, fname.replace(".7z", ".txt"))
    if not os.path.exists(txt):
        print(f"  解凍中: {fname} ...")
        with py7zr.SevenZipFile(arc, "r") as z:
            z.extractall(CACHE)
    print(f"  読み込み中(大規模データ)...")
    df = pd.read_csv(txt, header=None, sep=r"\s+", dtype=np.float32)
    pcd = o3d.geometry.PointCloud()
    pcd.points = o3d.utility.Vector3dVector(df.iloc[:, :3].values)
    pcd.colors = o3d.utility.Vector3dVector(df.iloc[:, 4:7].values / 255.0)
    return pcd

# ┌────────────────────────────────────┐
# │  共通部分:データセット定義            │
# └────────────────────────────────────┘
PCL = "https://raw.githubusercontent.com/PointCloudLibrary/data/master/"
DATASETS = {
    "1": ("室内Redwood        (PCD・RGB色付き)",         lambda: o3d.io.read_point_cloud(o3d.data.PCDPointCloud().path), 0.02),
    "2": ("室内デモ            (PCD・切り出しデモ)",      lambda: o3d.io.read_point_cloud(o3d.data.DemoCropPointCloud().point_cloud_path), 0.02),
    "3": ("テーブルシーン      (PCD・Sick LMS400 LiDAR)", lambda: o3d.io.read_point_cloud(fetch(PCL + "tutorials/table_scene_lms400.pcd", "table_lms400.pcd")), 0.005),
    "4": ("リビングルーム      (PLY・Redwood RGB-D)",     lambda: o3d.io.read_point_cloud(o3d.data.LivingRoomPointClouds().paths[0]), 0.05),
    "5": ("Eagle屋外彫刻       (PLY・実計測)",            lambda: o3d.io.read_point_cloud(o3d.data.EaglePointCloud().path), 0.005),
    "6": ("屋外噴水            (RGB-D生成・ETH)",        lambda: load_fountain(), 0.02),
    "7": ("Armadillo           (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.ArmadilloMesh().path).sample_points_poisson_disk(50000), 2.0),
    "8": ("Stanford Bunny      (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.BunnyMesh().path).sample_points_poisson_disk(50000), 0.002),
    "9": ("Semantic3D 教会     (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "bildstein_station1_xyz_intensity_rgb.7z",            "bildstein_station1_xyz_intensity_rgb.7z"), 0.1),
    "A": ("Semantic3D 噴水広場 (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "untermaederbrunnen_station1_xyz_intensity_rgb.7z",   "untermaederbrunnen_station1_xyz_intensity_rgb.7z"), 0.1),
    "B": ("Semantic3D 大聖堂   (屋外urban・静的LiDAR)",   lambda: load_semantic3d(S3D + "domfountain_station3_xyz_intensity_rgb.7z",           "domfountain_station3_xyz_intensity_rgb.7z"), 0.1),
}

# ┌────────────────────────────────────┐
# │  共通部分:データセット選択と読み込み  │
# └────────────────────────────────────┘
print("データセット選択:\n" + "\n".join(f"  {k}: {v[0]}" for k, v in DATASETS.items()))
_, loader, voxel_size = DATASETS[input("番号: ").strip()]
pcd = loader()
print(f"読み込み完了: {len(pcd.points)} 点")

# ┌────────────────────────────────────────────────┐
# │  パターン5固有の処理:前処理+ポリゴン変換(3手法) │
# └────────────────────────────────────────────────┘
pcd = pcd.voxel_down_sample(voxel_size)
pcd, _ = pcd.remove_statistical_outlier(nb_neighbors=20, std_ratio=2.0)
pcd.estimate_normals(o3d.geometry.KDTreeSearchParamHybrid(radius=voxel_size * 5, max_nn=30))
pcd.orient_normals_consistent_tangent_plane(100)

def transfer_colors(src, mesh):
    if not src.has_colors():
        return
    kd = o3d.geometry.KDTreeFlann(src)
    cols = np.asarray(src.colors)
    vcols = np.array([cols[kd.search_knn_vector_3d(v, 1)[1][0]]
                      for v in np.asarray(mesh.vertices)])
    mesh.vertex_colors = o3d.utility.Vector3dVector(vcols)

mesh_a = o3d.geometry.TriangleMesh.create_from_point_cloud_alpha_shape(pcd, alpha=voxel_size * 5)
mesh_a.compute_vertex_normals()
o3d.visualization.draw_geometries([mesh_a], window_name="Alpha Shape")

radii = o3d.utility.DoubleVector([voxel_size * 2.5, voxel_size * 5, voxel_size * 10])
mesh_b = o3d.geometry.TriangleMesh.create_from_point_cloud_ball_pivoting(pcd, radii)
mesh_b.compute_vertex_normals()
o3d.visualization.draw_geometries([mesh_b], window_name="Ball Pivoting")

mesh_p, _ = o3d.geometry.TriangleMesh.create_from_point_cloud_poisson(pcd, depth=9)
mesh_p.compute_vertex_normals()
transfer_colors(pcd, mesh_p)
o3d.visualization.draw_geometries([mesh_p], window_name="Poisson (depth=9)")

パターン6:読み込み+Convex Hull+確認表示

Qhullアルゴリズムにより点群の凸包(全点を包含する最小凸多面体)を計算し,赤色のワイヤーフレームで可視化する。

# ════════════════════════════════════════
# パターン6:読み込み+Convex Hull+確認表示
# ════════════════════════════════════════

# ┌────────────────────────────────────┐
# │  共通部分:ライブラリインポート        │
# └────────────────────────────────────┘
import open3d as o3d, os, numpy as np, urllib.request as ur, pandas as pd

# ┌────────────────────────────────────┐
# │  共通部分:キャッシュディレクトリ設定  │
# └────────────────────────────────────┘
CACHE = os.path.expanduser("~/.cache/o3d_demo")
os.makedirs(CACHE, exist_ok=True)

# ┌────────────────────────────────────┐
# │  共通部分:データ取得関数              │
# └────────────────────────────────────┘
def fetch(url, fname):
    path = os.path.join(CACHE, fname)
    if not os.path.exists(path):
        print(f"  ダウンロード中: {fname} ...")
        ur.urlretrieve(url, path)
    return path

def load_fountain():
    d = o3d.data.SampleFountainRGBDImages()
    color = o3d.io.read_image(d.color_paths[0])
    depth = o3d.io.read_image(d.depth_paths[0])
    rgbd = o3d.geometry.RGBDImage.create_from_color_and_depth(
        color, depth, depth_trunc=4.0, convert_rgb_to_intensity=False)

    # デフォルトのPrimeSenseカメラパラメータを使用
    intrinsic = o3d.camera.PinholeCameraIntrinsic(
        o3d.camera.PinholeCameraIntrinsicParameters.PrimeSenseDefault)

    return o3d.geometry.PointCloud.create_from_rgbd_image(rgbd, intrinsic)

S3D = "https://share.phys.ethz.ch/~pf/semantic3d/data/point-clouds/training1/"

def load_semantic3d(url, fname):
    import py7zr
    arc = fetch(url, fname)
    txt = os.path.join(CACHE, fname.replace(".7z", ".txt"))
    if not os.path.exists(txt):
        print(f"  解凍中: {fname} ...")
        with py7zr.SevenZipFile(arc, "r") as z:
            z.extractall(CACHE)
    print(f"  読み込み中(大規模データ)...")
    df = pd.read_csv(txt, header=None, sep=r"\s+", dtype=np.float32)
    pcd = o3d.geometry.PointCloud()
    pcd.points = o3d.utility.Vector3dVector(df.iloc[:, :3].values)
    pcd.colors = o3d.utility.Vector3dVector(df.iloc[:, 4:7].values / 255.0)
    return pcd

# ┌────────────────────────────────────┐
# │  共通部分:データセット定義            │
# └────────────────────────────────────┘
PCL = "https://raw.githubusercontent.com/PointCloudLibrary/data/master/"
DATASETS = {
    "1": ("室内Redwood        (PCD・RGB色付き)",         lambda: o3d.io.read_point_cloud(o3d.data.PCDPointCloud().path), 0.02),
    "2": ("室内デモ            (PCD・切り出しデモ)",      lambda: o3d.io.read_point_cloud(o3d.data.DemoCropPointCloud().point_cloud_path), 0.02),
    "3": ("テーブルシーン      (PCD・Sick LMS400 LiDAR)", lambda: o3d.io.read_point_cloud(fetch(PCL + "tutorials/table_scene_lms400.pcd", "table_lms400.pcd")), 0.005),
    "4": ("リビングルーム      (PLY・Redwood RGB-D)",     lambda: o3d.io.read_point_cloud(o3d.data.LivingRoomPointClouds().paths[0]), 0.05),
    "5": ("Eagle屋外彫刻       (PLY・実計測)",            lambda: o3d.io.read_point_cloud(o3d.data.EaglePointCloud().path), 0.005),
    "6": ("屋外噴水            (RGB-D生成・ETH)",        lambda: load_fountain(), 0.02),
    "7": ("Armadillo           (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.ArmadilloMesh().path).sample_points_poisson_disk(50000), 2.0),
    "8": ("Stanford Bunny      (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.BunnyMesh().path).sample_points_poisson_disk(50000), 0.002),
    "9": ("Semantic3D 教会     (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "bildstein_station1_xyz_intensity_rgb.7z",            "bildstein_station1_xyz_intensity_rgb.7z"), 0.1),
    "A": ("Semantic3D 噴水広場 (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "untermaederbrunnen_station1_xyz_intensity_rgb.7z",   "untermaederbrunnen_station1_xyz_intensity_rgb.7z"), 0.1),
    "B": ("Semantic3D 大聖堂   (屋外urban・静的LiDAR)",   lambda: load_semantic3d(S3D + "domfountain_station3_xyz_intensity_rgb.7z",           "domfountain_station3_xyz_intensity_rgb.7z"), 0.1),
}

# ┌────────────────────────────────────┐
# │  共通部分:データセット選択と読み込み  │
# └────────────────────────────────────┘
print("データセット選択:\n" + "\n".join(f"  {k}: {v[0]}" for k, v in DATASETS.items()))
_, loader, voxel_size = DATASETS[input("番号: ").strip()]
pcd = loader()
print(f"読み込み完了: {len(pcd.points)} 点")

# ┌────────────────────────────────────┐
# │  パターン6固有の処理:Convex Hull     │
# └────────────────────────────────────┘
pcd = pcd.voxel_down_sample(voxel_size)
pcd, _ = pcd.remove_statistical_outlier(nb_neighbors=20, std_ratio=2.0)
hull, _ = pcd.compute_convex_hull()
hull_ls = o3d.geometry.LineSet.create_from_triangle_mesh(hull)
hull_ls.paint_uniform_color((1, 0, 0))
print(f"Convex Hull: {len(hull.vertices)} 頂点, {len(hull.triangles)} 三角形")
o3d.visualization.draw_geometries([pcd, hull_ls], window_name="Convex Hull")

パターン7:読み込み+平面抽出(RANSAC)+確認表示

RANSACアルゴリズムにより点群から主要な平面を検出し,平面内点(赤色)と平面外点(元の色)を分離表示する。

# ════════════════════════════════════════
# パターン7:読み込み+平面抽出(RANSAC)+確認表示
# ════════════════════════════════════════

# ┌────────────────────────────────────┐
# │  共通部分:ライブラリインポート        │
# └────────────────────────────────────┘
import open3d as o3d, os, numpy as np, urllib.request as ur, pandas as pd

# ┌────────────────────────────────────┐
# │  共通部分:キャッシュディレクトリ設定  │
# └────────────────────────────────────┘
CACHE = os.path.expanduser("~/.cache/o3d_demo")
os.makedirs(CACHE, exist_ok=True)

# ┌────────────────────────────────────┐
# │  共通部分:データ取得関数              │
# └────────────────────────────────────┘
def fetch(url, fname):
    path = os.path.join(CACHE, fname)
    if not os.path.exists(path):
        print(f"  ダウンロード中: {fname} ...")
        ur.urlretrieve(url, path)
    return path

def load_fountain():
    d = o3d.data.SampleFountainRGBDImages()
    color = o3d.io.read_image(d.color_paths[0])
    depth = o3d.io.read_image(d.depth_paths[0])
    rgbd = o3d.geometry.RGBDImage.create_from_color_and_depth(
        color, depth, depth_trunc=4.0, convert_rgb_to_intensity=False)

    # デフォルトのPrimeSenseカメラパラメータを使用
    intrinsic = o3d.camera.PinholeCameraIntrinsic(
        o3d.camera.PinholeCameraIntrinsicParameters.PrimeSenseDefault)

    return o3d.geometry.PointCloud.create_from_rgbd_image(rgbd, intrinsic)

S3D = "https://share.phys.ethz.ch/~pf/semantic3d/data/point-clouds/training1/"

def load_semantic3d(url, fname):
    import py7zr
    arc = fetch(url, fname)
    txt = os.path.join(CACHE, fname.replace(".7z", ".txt"))
    if not os.path.exists(txt):
        print(f"  解凍中: {fname} ...")
        with py7zr.SevenZipFile(arc, "r") as z:
            z.extractall(CACHE)
    print(f"  読み込み中(大規模データ)...")
    df = pd.read_csv(txt, header=None, sep=r"\s+", dtype=np.float32)
    pcd = o3d.geometry.PointCloud()
    pcd.points = o3d.utility.Vector3dVector(df.iloc[:, :3].values)
    pcd.colors = o3d.utility.Vector3dVector(df.iloc[:, 4:7].values / 255.0)
    return pcd

# ┌────────────────────────────────────┐
# │  共通部分:データセット定義            │
# └────────────────────────────────────┘
PCL = "https://raw.githubusercontent.com/PointCloudLibrary/data/master/"
DATASETS = {
    "1": ("室内Redwood        (PCD・RGB色付き)",         lambda: o3d.io.read_point_cloud(o3d.data.PCDPointCloud().path), 0.02),
    "2": ("室内デモ            (PCD・切り出しデモ)",      lambda: o3d.io.read_point_cloud(o3d.data.DemoCropPointCloud().point_cloud_path), 0.02),
    "3": ("テーブルシーン      (PCD・Sick LMS400 LiDAR)", lambda: o3d.io.read_point_cloud(fetch(PCL + "tutorials/table_scene_lms400.pcd", "table_lms400.pcd")), 0.005),
    "4": ("リビングルーム      (PLY・Redwood RGB-D)",     lambda: o3d.io.read_point_cloud(o3d.data.LivingRoomPointClouds().paths[0]), 0.05),
    "5": ("Eagle屋外彫刻       (PLY・実計測)",            lambda: o3d.io.read_point_cloud(o3d.data.EaglePointCloud().path), 0.005),
    "6": ("屋外噴水            (RGB-D生成・ETH)",        lambda: load_fountain(), 0.02),
    "7": ("Armadillo           (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.ArmadilloMesh().path).sample_points_poisson_disk(50000), 2.0),
    "8": ("Stanford Bunny      (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.BunnyMesh().path).sample_points_poisson_disk(50000), 0.002),
    "9": ("Semantic3D 教会     (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "bildstein_station1_xyz_intensity_rgb.7z",            "bildstein_station1_xyz_intensity_rgb.7z"), 0.1),
    "A": ("Semantic3D 噴水広場 (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "untermaederbrunnen_station1_xyz_intensity_rgb.7z",   "untermaederbrunnen_station1_xyz_intensity_rgb.7z"), 0.1),
    "B": ("Semantic3D 大聖堂   (屋外urban・静的LiDAR)",   lambda: load_semantic3d(S3D + "domfountain_station3_xyz_intensity_rgb.7z",           "domfountain_station3_xyz_intensity_rgb.7z"), 0.1),
}

# ┌────────────────────────────────────┐
# │  共通部分:データセット選択と読み込み  │
# └────────────────────────────────────┘
print("データセット選択:\n" + "\n".join(f"  {k}: {v[0]}" for k, v in DATASETS.items()))
_, loader, voxel_size = DATASETS[input("番号: ").strip()]
pcd = loader()
print(f"読み込み完了: {len(pcd.points)} 点")

# ┌────────────────────────────────────┐
# │  パターン7固有の処理:平面抽出(RANSAC)│
# └────────────────────────────────────┘
plane_model, inliers = pcd.segment_plane(
    distance_threshold=voxel_size * 0.5, ransac_n=3, num_iterations=1000)
[a, b, c, d] = plane_model
print(f"平面方程式: {a:.2f}x + {b:.2f}y + {c:.2f}z + {d:.2f} = 0")
print(f"平面内点数: {len(inliers)}, 平面外点数: {len(pcd.points) - len(inliers)}")
inlier_cloud = pcd.select_by_index(inliers)
inlier_cloud.paint_uniform_color([1.0, 0, 0])
outlier_cloud = pcd.select_by_index(inliers, invert=True)
o3d.visualization.draw_geometries([inlier_cloud, outlier_cloud], window_name="平面抽出(RANSAC)")

パターン8:読み込み+DBSCANクラスタリング+確認表示

DBSCAN密度ベースクラスタリングにより,点群を複数のクラスタに自動分割し,各クラスタを異なる色で表示する。ノイズ点は黒色で表示される。

# ════════════════════════════════════════
# パターン8:読み込み+DBSCANクラスタリング+確認表示
# ════════════════════════════════════════

# ┌────────────────────────────────────┐
# │  共通部分:ライブラリインポート        │
# └────────────────────────────────────┘
import open3d as o3d, os, numpy as np, urllib.request as ur, pandas as pd, matplotlib.pyplot as plt

# ┌────────────────────────────────────┐
# │  共通部分:キャッシュディレクトリ設定  │
# └────────────────────────────────────┘
CACHE = os.path.expanduser("~/.cache/o3d_demo")
os.makedirs(CACHE, exist_ok=True)

# ┌────────────────────────────────────┐
# │  共通部分:データ取得関数              │
# └────────────────────────────────────┘
def fetch(url, fname):
    path = os.path.join(CACHE, fname)
    if not os.path.exists(path):
        print(f"  ダウンロード中: {fname} ...")
        ur.urlretrieve(url, path)
    return path

def load_fountain():
    d = o3d.data.SampleFountainRGBDImages()
    color = o3d.io.read_image(d.color_paths[0])
    depth = o3d.io.read_image(d.depth_paths[0])
    rgbd = o3d.geometry.RGBDImage.create_from_color_and_depth(
        color, depth, depth_trunc=4.0, convert_rgb_to_intensity=False)

    # デフォルトのPrimeSenseカメラパラメータを使用
    intrinsic = o3d.camera.PinholeCameraIntrinsic(
        o3d.camera.PinholeCameraIntrinsicParameters.PrimeSenseDefault)

    return o3d.geometry.PointCloud.create_from_rgbd_image(rgbd, intrinsic)

S3D = "https://share.phys.ethz.ch/~pf/semantic3d/data/point-clouds/training1/"

def load_semantic3d(url, fname):
    import py7zr
    arc = fetch(url, fname)
    txt = os.path.join(CACHE, fname.replace(".7z", ".txt"))
    if not os.path.exists(txt):
        print(f"  解凍中: {fname} ...")
        with py7zr.SevenZipFile(arc, "r") as z:
            z.extractall(CACHE)
    print(f"  読み込み中(大規模データ)...")
    df = pd.read_csv(txt, header=None, sep=r"\s+", dtype=np.float32)
    pcd = o3d.geometry.PointCloud()
    pcd.points = o3d.utility.Vector3dVector(df.iloc[:, :3].values)
    pcd.colors = o3d.utility.Vector3dVector(df.iloc[:, 4:7].values / 255.0)
    return pcd

# ┌────────────────────────────────────┐
# │  共通部分:データセット定義            │
# └────────────────────────────────────┘
PCL = "https://raw.githubusercontent.com/PointCloudLibrary/data/master/"
DATASETS = {
    "1": ("室内Redwood        (PCD・RGB色付き)",         lambda: o3d.io.read_point_cloud(o3d.data.PCDPointCloud().path), 0.02),
    "2": ("室内デモ            (PCD・切り出しデモ)",      lambda: o3d.io.read_point_cloud(o3d.data.DemoCropPointCloud().point_cloud_path), 0.02),
    "3": ("テーブルシーン      (PCD・Sick LMS400 LiDAR)", lambda: o3d.io.read_point_cloud(fetch(PCL + "tutorials/table_scene_lms400.pcd", "table_lms400.pcd")), 0.005),
    "4": ("リビングルーム      (PLY・Redwood RGB-D)",     lambda: o3d.io.read_point_cloud(o3d.data.LivingRoomPointClouds().paths[0]), 0.05),
    "5": ("Eagle屋外彫刻       (PLY・実計測)",            lambda: o3d.io.read_point_cloud(o3d.data.EaglePointCloud().path), 0.005),
    "6": ("屋外噴水            (RGB-D生成・ETH)",        lambda: load_fountain(), 0.02),
    "7": ("Armadillo           (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.ArmadilloMesh().path).sample_points_poisson_disk(50000), 2.0),
    "8": ("Stanford Bunny      (Stanford 3Dスキャン)",    lambda: o3d.io.read_triangle_mesh(o3d.data.BunnyMesh().path).sample_points_poisson_disk(50000), 0.002),
    "9": ("Semantic3D 教会     (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "bildstein_station1_xyz_intensity_rgb.7z",            "bildstein_station1_xyz_intensity_rgb.7z"), 0.1),
    "A": ("Semantic3D 噴水広場 (屋外rural・静的LiDAR)",   lambda: load_semantic3d(S3D + "untermaederbrunnen_station1_xyz_intensity_rgb.7z",   "untermaederbrunnen_station1_xyz_intensity_rgb.7z"), 0.1),
    "B": ("Semantic3D 大聖堂   (屋外urban・静的LiDAR)",   lambda: load_semantic3d(S3D + "domfountain_station3_xyz_intensity_rgb.7z",           "domfountain_station3_xyz_intensity_rgb.7z"), 0.1),
}

# ┌────────────────────────────────────┐
# │  共通部分:データセット選択と読み込み  │
# └────────────────────────────────────┘
print("データセット選択:\n" + "\n".join(f"  {k}: {v[0]}" for k, v in DATASETS.items()))
_, loader, voxel_size = DATASETS[input("番号: ").strip()]
pcd = loader()
print(f"読み込み完了: {len(pcd.points)} 点")

# ┌────────────────────────────────────┐
# │  パターン8固有の処理:DBSCANクラスタリング  │
# └────────────────────────────────────┘
pcd = pcd.voxel_down_sample(voxel_size)
pcd, _ = pcd.remove_statistical_outlier(nb_neighbors=20, std_ratio=2.0)
labels = np.array(pcd.cluster_dbscan(eps=voxel_size * 10, min_points=10, print_progress=True))
max_label = labels.max()
print(f"クラスタ数: {max_label + 1}  (ノイズ点: {(labels < 0).sum()} 点)")
colors = plt.get_cmap("tab20")(labels / (max_label if max_label > 0 else 1))
colors[labels < 0] = 0
pcd.colors = o3d.utility.Vector3dVector(colors[:, :3])
o3d.visualization.draw_geometries([pcd], window_name="DBSCANクラスタリング")

6. まとめ

Open3Dライブラリの特徴

Open3Dは,ファイル拡張子から形式を自動判別する入出力機能により,多様な3次元データの読み書きが容易である。

ダウンサンプリングと外れ値除去

ボクセルダウンサンプリングは空間的に均一な点群を得る手法であり,統計的外れ値除去は近傍点との平均距離の分布に基づいて異常点を除去する。

法線推定とポリゴン変換

法線推定は共分散分析により各点の法線方向を推定する。法線情報を利用することで,点群からポリゴンメッシュを生成できる。

セグメンテーションとクラスタリング

RANSACベースの平面検出により主要な平面構造を抽出できる。DBSCAN密度ベースクラスタリングは密度の高い領域を自動的にクラスタとして検出する。