Stap 1: Nauwe Loop Control van het hoofd met behulp van OpenCV
Wij maakte de beslissing om minder menselijke controle van het hoofd tijdens de finale dan we bij de proeven deden te doen. We vonden dat als u alleen een paar seconden krijgen om te beslissen en vervolgens het commando van de robot u niet wilt dat die tijd bezig geweest met het hoofd bewegen.
Kon hebben we besloten om het scannen van de hele kamer en dan simuleren of emuleren van de robot, maar dat neemt meer bewerkingen en probeer te comprimeren die gegevens en sturen naar het controlestation. Zoals we in de DARPA in 2005 en 2007 uitdagingen we in plaats daarvan deden kozen te concentreren op iets dan een beslissing nemen. Bijvoorbeeld in oppervlakte A (links draaien over verkeer wij de "hoofd" sensor pack verplaatst in de richting die we nodig hadden om te kijken.
Ook tijdens de finales van de DRC DARPA we gewend OpenCV herkennen de cirkel van de klep of het retangle met cirkel erin met een lijn met die van de "deurklink". Dan sturen we berichten naar de HeadYaw en HeadPitch servo's verplaatsen zodat de LIDAR van oorsprong middelpunt van het "ventiel", of "omgaan met deur is". Wij toegevoegd een proces dat alleen purpose is te zien hoe ver van de LIDAR van oorsprong is uit het midden van het "ventiel" en dan verplaatsen de HeadYaw, HeadPitch servo's om deze te verplaatsen terug naar centrum.
Waarom geen code?
Net heb niet mijn handen op een voorbeeld dat niet in de grotere softwaresysteem krijgt. Volstaan it to zeggen dat we gebouwd uit de cirkel detectie voorbeelden van de OpenCV-bibliotheek. We uitstoten dan gewoon de juiste berichten om de kop positie te wijzigen.
Het bepalen van de oorsprong van de LIDAR ?
Voor het eerst wij de LIDAR dicht bij de positie van de Camera zelf gemonteerd. Vervolgens schakelt u alle lichten en leg een wit stuk papier voor de robot. In een donkere kamer verhogen veel camera's de Videoversterkers winst zodat infrarood licht zal het activeren van de CCD-camera. Dit wordt gebruikt in veel DIY "night vision" projecten. In dit geval we eenvoudig de opname en krijg de X en Y van de spot de camera ziet. Deze set van X en Y zijn de LIDAR van oorsprong. Het kringloop besturingselement probeert om niets te doen meer dan het houden van het object van belang, dat wil zeggen het "ventiel" of de "deurklink", gecentreerd op de op die oorsprong, dus de LIDAR gegevens op/dev/ttyUSB # is de afstand tot het object van belang.