Позиционирование камеры в локальном пространстве
- Войдите на сайт для отправки комментариев
Сб, 30/09/2017 - 18:21
Устройство, которое я намерен собрать, представляет из себя систему позиционирования камеры в локальном пространстве.
По сути это 3-х осевой стабилизатор типа https://www.youtube.com/watch?time_continue=322&v=LPLr7TcbLkk с обратной связью.
Если такой стабилизатор, в основном отслеживает НАЧАЛЬНОЕ положение камеры, то в устройстве, которое я хочу собрать, сигналы, которые управляют моторами этой платформы, должны задавать вектору камеры, ОПРЕДЕЛЕННОЕ (заданное мной) положение.
На сколько я понимаю, это продолжение работ описанных в статье http://arduino.ru/forum/proekty/ultrazvukovaya-lokalnaya-sistema-pozitsionirovaniya.
Т.е есть стабилизированная платформа, ориентация которой, в текущий момент времени, описана в локальном 3Д пространстве. Зная такое положение, моторы разворачивают камеру в ТРЕБУЕМОЕ положение.
Рабочая область, ее параметры описаны в статье https://ru.wikiversity.org/wiki/Создание_ультразвуковой_локальной_системы_позиционирования -- 5,6 метра.
Но вместо одной отслеживаемой точки, 3 (ориентируем плоскость).
Максимально быстрое время отклика.
На сколько все это осуществимо ???
-- 5,6 метра
я не понимаю как между собой сочетаются
"Если такой стабилизатор, в основном отслеживает НАЧАЛЬНОЕ положение камеры, то в устройстве, которое я хочу собрать, сигналы, которые управляют моторами этой платформы, должны задавать вектору камеры, ОПРЕДЕЛЕННОЕ (заданное мной) положение."
и
"Но вместо одной отслеживаемой точки, 3 (ориентируем плоскость)"
мы поворацичаем камеру просто в нужном направлении или мы распознаем куда надо повернуть и потом поворачиваем?