最近、Meta社はGitHubプラットフォーム上で、空間言語(Spatial Lingo)という名前のオープンソースのUnityアプリをリリースしました。このアプリは、現実世界の物体を識別することで言語を練習するためのものです。このアプリは、Metaの複数のソフトウェア開発キット(SDK)に基づいており、ユーザーに新しい面白さのある言語学習体験を提供します。

Spatial Lingoアプリのコアコンセプトは、ユーザーが目標言語で周囲の物を認識し説明することで、言語能力を向上させることです。ユーザーは、「Golly Gosh」という仮想キャラクターの案内で、身近な物を使って語彙を練習します。このアプリは手の追跡とコントローラー操作をサポートしており、ユーザーの没入感を高めます。

QQ20260108-100456.png

プロジェクトの設計目的は、Unity開発者にMetaのさまざまな機能と開発テンプレートを理解することを提供することです。パースペクティブカメラAPI(PCA)、音声SDK、ミックスドリアリティユーティリティキット(MRUK)などを利用して、開発者はより豊かなミックスドリアリティ体験を作成できます。Spatial Lingoのメインシーンと複数のサンプルシーンは、これらの機能の実装方法を示しています。例えば、ジムのシーン、ワードクラウドのシーン、カメラ画像のシーンなどが含まれます。

Spatial Lingoを使用するには、Unity 6000.0.51f1以上をインストールし、対応するLlama APIキーを設定する必要があります。プロジェクトは特にセキュリティを重視しており、アプリ内にAPIキーを埋め込むことを避けるよう開発者に注意喚起しています。

Spatial Lingoの多様な機能により、これは言語学習の強力なツールとなっています。このアプリはユーザーの環境にある物を識別し、それにもとづいて動的な言語コースを生成します。ユーザーが継続的に言語ツリーを構築していくにつれて、システムは物に関連する動詞や形容詞を自動的に生成し、コースの内容を豊かにします。さらに、このアプリには音声合成と変換機能があり、複数の言語をサポートしているため、インタラクティブ性がさらに向上しています。

このプロジェクトは、Metaが教育分野での一歩となる試みであるだけでなく、開発者に優れたオープンソースの例を提供し、ミックスドリアリティ技術と言語学習を組み合わせる方法を示しています。開発者はGitHubでSpatial Lingoにアクセスし、ソースコードと関連ドキュメントを得て、その潜在力をさらに探求することができます。

アドレス:https://github.com/oculus-samples/Unity-SpatialLingo