Stap 4: Code
Ik was aanvankelijk plan om gebruik van een combinatie van Chrome speech API en verwerking uit te voeren van de eenvoudige schets die in stem zou nemen input en doen iets visueel met de gegevens. Na rondneuzen met websocket inzake verwerking en niet te laten werken, ik googled rond en vond Dit p5.speech bibliotheek. P5.js is een platform dat ik ben vrij comfortabel met (met dank aan dit project van de gedeeltelijke 100 dagen van P5.js die ik afgelopen najaar), plus het werkt al op het web, zodat het van de Chrome speech API profiteren kan.
De spraak/woordherkenning werkt net als magie. Vervolgens wilde ik de woorden nemen en doe een google image search met hen (alsof de kind-computer in de stem-input neemt en het opgezocht op het internet). Dit kan reeds worden gedaan op een normale Google Image Search met behulp van spraak (het resultaat zou lijken een typische Google Images zoekresultaat / tegels), maar moet de gebruiker op een knop klikt, elke keer als hij/zij wil om een zoekopdracht te starten. Ik serieus overwogen mijn systeem opnieuw te configureren zodat er een knop op de microfoon, maar uiteindelijk besloten om te werken met de code die ik heb al. Om dit te doen, nodig ik probeer te vinden een manier om de computer voortdurend luisteren en werken met Google Custom Search API.
Ik riep de hulp in van mijn ex-collega vriend, Kevin Ho, om me te helpen met dit. De hele API, JSON, JQuery gesprekken een beetje over mijn hoofd waren. Hij schreef een super blote bot schets die één afbeelding op basis van het betoog invoer trekt. Ik maak kleine tweaks om de querytekst gaan over de resultaten van het beeld met een licht dekkende zwarte achtergrond te maken.
Ik moest mijn eigen API-sleutel, die via de Google Developer-Consolekan worden gedaan. Deze API-sleutel wordt gebruikt in SimpleSearch.js om te grijpen van de eerste afbeelding zoekresultaat van Google.