Heel benieuwd hoe ver de mogelijkheden gaan zijn voor de passthrough van de Meta quest.
TLDR:
eind van het jaar komen er veel mogelijkheden voor developers om het camera beeld te gaan gebruiken. Voor zowel object recognition, maar de developers krijgen ook toegang tot de camera feed. Hoe ver we kunnen gaan moet nog blijken…
En publieke waarden? Dat gaat nog interessant worden.
Benieuwd naar jullie 2 cents!
Source:
https://www.meta.com/en-gb/help/quest/511837681585017
1 like
We hebben hier vandaag een aantal samples geprobeerd, en zijn nu bezig met het design voor sommige features in onze huidige projecten.
In de basis krijgt unity een WebCamTexture binnen, precies zoals het ook werkt met Andere Webcam / Android camera toepassingen. Het enige is dat Meta nogal een bult aan extra utility helpers toevoegd, dus onze vragen zijn nog:
- Hoe makkelijk werkt het zonder al die extra Meta SDK features
- Hoe makkelijk werkt het bij een Cross-Platform OpenXR based applicatie
- Hoe makkelijk is het met andere packages als OpenCV te combineren?
In theory allemaal mogelijk, maar in de praktijk zal het nog wel voor wat verassingen kunnen zorgen.
Het is al door iemand uitgeprobeerd, en OpenCV werkt met de Quest3 voor accurate marker tracking:
TakashiYoshinaga/QuestArUcoMarkerTracking
Voor mensen die liever de OpenXR & Unity XR Interaction Toolkit gebruiken dan de OVRCamera, dit werkt ook zonder problemen. SkarredGhost heeft een goede “from scratch” tutorial die hier mee kan helpen.
Ben je bij de volgende developer network meeting op 15/4? Zo ja, eventueel heel kort iets vertellen over de eerste ervaringen ermee?