多数のカメラの動的キャリブレーション

マラソンの中継では、多くテレビカメラが各ランナーを把握して、 視聴者が望む映像を提供することが求められます。 このとき、「ランナーAがX地点を通過したため、次はY地点でAをとらえてくれ」 などとして、ランナーの追跡が行われます。 しかし、カメラの位置は、実況ごとに変ります。 また、e-learning用に授業を撮影する場合は、教室全体、教員、黒板など、 その時々の状況に応じて、映すべき対象を切り換える必要がありますが、 授業により、適切なカメラ配置が変化するでしょう。

このような場合、配置されたカメラが、お互いの位置、姿勢を認識していれば、 各カメラが、「自分の隣りには、カメラMとカメラNがある。 自分の見えない所は、カメラPが観測できる。」ということが理解でき、 スポーツ中継や授業の撮影に役立ちます。

このようなカメラ間の位置、姿勢を知るために、これまでは、 大局的な座標系を設けて、 その座標系における各カメラの配置状況を決定する方法が用いられてきました。 しかし、私達の撮影対象は、動く物体です。このため、本研究では、 この動く物体の位置を、時間的に同期したカメラでとらえることで、 カメラ間の相対的な位置関係と姿勢を、逐次、動的に決定していきます。 この方法であれば、たとえカメラの物理的位置が変化しても、 その変化を素早く修正できる期待できます。

Back to Research List.