Blog

Insights on robotics, AI, and data collection

GPUアクセラレーションのビジュアルを備えたハイテクシミュレーション環境における未来的なロボットアーム
ロボット工学AIシミュレーション

Isaac Lab: 次世代GPUシミュレーションによるマルチモーダルロボット学習

NVIDIAのIsaac Labが、GPUアクセラレーションによるシミュレーションを通じて、マルチモーダルロボット学習をどのように革新し、AIトレーニングの高速化、スケーラブルな展開、ロボット工学の研究者や企業向けのROIの最適化を実現するかをご覧ください。

Oct 15, 202312
Isaac Gym の GPU ネイティブ物理学によって強化されたシミュレーション環境でインタラクトする未来的なロボット アーム
ロボット工学AIシミュレーション

Isaac Gym: ロボット学習のための GPU ネイティブ物理シミュレーション - 数千の並列環境のスケーリング

Isaac Gym が GPU ネイティブの物理シミュレーションでロボット学習に革命を起こし、迅速な強化学習、VLA モデルのトレーニング、効率的な AI ロボットの遠隔操作のために数千の並列環境を可能にする方法をご覧ください。ベンチマーク、PyTorch との統合、シムツーリアルのギャップを埋める現実世界のアプリケーションを探求してください。

Oct 5, 202312
キッチン環境でゼロショットタスクの一般化を実証するロボットアーム
ロボット工学AI模倣学習

BC-Z: ロボット模倣学習によるゼロショットタスクの一般化 - スケールが本当に意味するもの

BC-Zが、スケーリングされたデモンストレーションデータを通じてゼロショットタスクの一般化を可能にすることで、ロボット模倣学習にどのように革命をもたらすかを探ります。スケーリング則、VLAモデル、テレオペレーションのベストプラクティス、およびロボット企業とAIエンジニアのROIの利点を発見してください。

Oct 1, 202312
多様な現実世界の環境で操作タスクを実行するロボットアーム
ロボット工学AI遠隔操作

DROIDデータセット:AIトレーニング向けの大規模ロボット操作に革命を起こす

大規模ロボット操作データセットであるDROIDデータセットが、実際の環境からの76,000件を超えるデモンストレーションにより、ロボットのAIトレーニングをどのように変革しているかをご覧ください。VLAモデル、ベンチマーク、およびロボット工学企業向けの拡張可能なデータ収集方法への影響について学びます。

Oct 1, 202410
多様な環境で物体を操作する低コストのロボットアーム。BridgeData V2データセットの収集を紹介
ロボット工学AI機械学習

BridgeData V2: 低コストのロボットデータの大規模化 - 模倣学習およびオフラインRLのどの手法が実際に役立つか

BridgeData V2が低コストで大規模なロボットデータを提供し、模倣学習法とオフライン強化学習をどのように強化するかを探ります。主要なベンチマーク、ロボティクスにおけるVLAモデル、AIトレーニングデータ収集のための効率的なロボット遠隔操作ワークフローを発見してください。

Oct 1, 202315
Pi-Zeroフローマッチングポリシーを使用して器用な操作タスクを実行するロボットアーム
ロボット工学AIフローマッチング

Pi-Zero Flow-Matching Robot Policies: Revolutionizing Dexterous Control with VLM Initialization

Discover how Pi-Zero's flow-matching technique, combined with VLM initialization, is transforming generalist robot policies for dexterous control. Learn about its advantages over traditional methods, efficiency in AI training data for robotics, and implications for scalable robot deployment in industries.

Oct 5, 202412
AIビジョン・言語・行動モデルを使用してオブジェクトと対話するロボットアーム
RT-2ビジョン・言語・行動モデルロボット工学AI

RT-2:ビジョン・言語・行動モデルがウェブの知識をロボット制御にどのように転送するか

GoogleのRT-2ビジョン・言語・行動モデルが、ウェブの知識を物理的な行動に転送することで、ロボット制御に革命を起こす方法をご覧ください。そのアーキテクチャ、トレーニング方法、創発的機能、ロボット企業やオペレーターへの影響(効率的なAIトレーニングのためのテレオペレーションとの統合を含む)について学びます。

Oct 15, 202312
AIビジョンと言語処理を使用してオブジェクトと対話する未来的なロボットアーム
ロボット工学AI遠隔操作

ビジョン-言語-アクションモデル:ロボット学習の未来

ビジョン-言語-アクション(VLA)モデルが、ビジョン、言語、アクションを統合して、よりスマートで効率的なロボット工学を実現し、ロボット学習に革命を起こしている様子を探ります。この包括的なガイドで、アーキテクチャ、トレーニング方法、ベンチマーク、および展開のROIを発見してください。

Nov 15, 202312
Google DeepMind の RT-2: 視覚-言語-行動モデルがロボット学習をどのように変革しているか
人工知能ロボット工学機械学習

Google DeepMind の RT-2: 視覚-言語-行動モデルがロボット学習をどのように変革しているか

Google の RT-2 視覚-言語-行動 (VLA) モデルが、視覚データ、自然言語、リアルタイム動作を統合してロボット学習を再定義する方法を発見してください。この革新的な AI 技術は、遠隔操作者のデータ収集を強化し、ロボットアプリケーションの効率を向上させます。AY-Robots で、AI 駆動型ロボットの未来への潜在的な影響を探求してください。

Dec 1, 20258 min read
RT-2: 高品質なロボット訓練データがアルゴリズムを上回る理由 – Google DeepMindの画期的な洞察
ロボティクスAI機械学習

RT-2: 高品質なロボット訓練データがアルゴリズムを上回る理由 – Google DeepMindの画期的な洞察

Google DeepMindのRT-2モデルが、AIロボティクスを革新する仕組みを発見してください。このモデルは、高品質な訓練データの重要性を強調し、進んだアルゴリズムよりも優先します。この記事では、効果的なデータ収集が実世界のロボット性能に不可欠であることを示す実験を詳述します。また、AY-Robotsのようなプラットフォームが、将来の革新のための訓練データのギャップを埋める方法を学びましょう。

Dec 1, 20258 min read