あるゲームをユーザーがプレイした時に、本当に面白いと感じるかどうかを評価するには、従来はどうしていたか?またこの先はどう変わりそうか?
以下の記事が刺激となり、AIを使いつつこの文章をまとめることにした。
あるゲームをユーザーがプレイした時に、本当に面白いと感じるかどうかを評価するには、従来はどうしていたか?またこの先はどう変わりそうか?
以下の記事が刺激となり、AIを使いつつこの文章をまとめることにした。
RTSP対応のカメラ(例えばTapo のカメラ)などを用意してRTSPを出力するように設定する。
参考: Tapoを使用したRTSPライブストリーミングの利用方法
GSCamを使えるようにする https://docs.ros.org/en/humble/p/gscam/
| /** | |
| * RGB-D WebRTC CODEC | |
| * RealSense等のDepthデータをRGB画像に埋め込んでWebRTCで伝送するためのエンコーダー/デコーダー | |
| */ | |
| /** | |
| * チャンネル分離方式 | |
| * 画像を4分割し、1つの領域に深度情報を格納 | |
| */ | |
| class RGBDCodec { |
Dockerコンテナからホストにアクセスするときのホスト名 host.docker.internal
WSLの場合 Genesis-Embodied-AI/Genesis#246 (comment)
import os
os.environ['PYOPENGL_PLATFORM'] = 'glx'
CUDA Error CUDA_ERROR_NO_DEVICE: no CUDA-capable device is detected while calling init (cuInit)
| // g++ scantest.cpp -lbluetooth | |
| #include <stdlib.h> | |
| #include <errno.h> | |
| #include <unistd.h> | |
| #include <sys/ioctl.h> | |
| #include <iostream> | |
| #include <signal.h> | |
| #include <bluetooth/bluetooth.h> |
| using UnityEngine; | |
| public class AckermannSteering : MonoBehaviour | |
| { | |
| [SerializeField] private float steeringAngle; // ステアリングの切れ角 | |
| [SerializeField] private float tread; // 左右の車輪間の距離 (トレッド) | |
| [SerializeField] private float wheelBase; // 前後の車輪間の距離 (ホイールベース) | |
| public float leftWheelAngle { get; private set; } // 左車輪の角度 | |
| public float rightWheelAngle { get; private set; } // 右車輪の角度 |