Amazon Echo och Google Home: En insiders perspektiv | KnowTechie

Vi kliar och vi är en app för underhållningsrekommendationer som hjälper användare att hitta sin nästa favoritfilm på mindre än 50 sekunder. När Google lanserade Google-assistenten kontaktade de oss för att arbeta med en åtgärd för Google-assistenten på Google Home, vilket innebär att de ville att vi skulle vara deras förinställda rekommendator för filmer och böcker. Detta innebar att användare helt enkelt kunde be kliar att rekommendera dem en bok eller film. Vi är en liten start-up, så vi var stolta över att bli utvalda.

Eftersom röst är tänkt att modellera framtiden för teknik och mänsklig kommunikation, kunde vi inte missa tåget. Så efter Google Home gick kliar också som en åtgärd med den andra stora aktören på marknaden, Amazon Echo. I generationen av röstaktiverade enheter tillåter vi våra användare att upptäcka sin nästa favorittitel genom att bara be itcher om en rekommendation på både Google Assistant på Google Home och – mer nyligen – Amazon Echo.

I den här artikeln tittar vi på hur båda enheterna hanterar användarinmatning, tillsammans med konversationsflöde och kontolänkning.

Vår röstresa har varit fascinerande och vi vill dela med oss ​​av vår erfarenhet så att du kan få en inblick i hur de nya enheterna på marknaden fungerar internt.

Vi kommer att täcka skillnaderna vi hittade i arbetet med Google Assistant och Amazon Alexa, så att du kan se de erfarenheter vi haft med var och en och lära dig mer om vad som ligger bakom gardinen för den senaste utvecklingen inom Virtual Assistants.

Inbyggda ontologier

Google Home

‘Inbyggda ontologier’ avser en uppsättning enheter i en specifik domän. Båda plattformarna erbjuder semantiksupport för att klassificera användaringångar korrekt.

Amazon Alexa: stöd för alla vanliga typer kliarbehov Bokförfattare, filmregissörer, skådespelare, boktitlar, filmtitlar. Google Assistant (med API.AI): ingen ontologi definierad för ovanstående typer, bara för mer generiska.

Våra olika anpassade typer

En anpassad typ i detta sammanhang är definitionen av en (komplex) enhet med hjälp av mer grundläggande typer. Båda plattformarna erbjuder stöd för att definiera anpassade typer. Vi använde dem i både åtgärden och skickligheten för att automatiskt klassificera några vanliga klådtyper, såsom huvudkategorier (böcker, filmer, etc.) och betygsvärden.

För det engelska brittiska språket på Alexa, använde vi dem också för att definiera surrogater för Amazon-inbyggda ontologier som endast är tillgängliga för ‘engelska engelska’ -språket (skådespelare, författare, boktitlar etc.). API.AI stöder definitionen av komposit anpassade typer, skapade med andra anpassade typer eller inbyggda typer (spara för ‘catch-all’ @ sys-vilken inbyggd typ som helst) i definitionen. Villkor som används för att definiera en anpassad typ i Alexa expanderas automatiskt (dvs. , Alexa naturligt språk bearbetningsalgoritm försöker identifiera termer i användarinmatningen som skulle tillhöra den definierade anpassade typen, även om de inte exakt matchar en av de termer som används i definitionen). Automatisk expansion är tillgänglig för API.AI anpassade typer, men kan också stängas av för att definiera strikta uppräkningar, om det behövs.

Konversationsflöde

eko-dot-amazon

Båda plattformarna stödjer begreppet avsikt, där användarens ingångar klassificeras som specifika förfrågningar till färdigheten / åtgärden, med tillhörande slots / parametrar.

Endast Google Assistant-plattformen erbjuder tillgång till den erkända ingången i sin råa form, som en del av avsikten. Medan det i det optimala fallet (användarinmatningen korrekt känns igen och platser / parametrar fylls i som förväntat) gör det ingen skillnad, men det är potentiellt användbart att implementera reservlogik på slutpunkten som bearbetar avsikten. Medan maskininlärning (ML) kan uppenbarligen påverkas av båda plattformarna genom att noggrant definiera provmönster / yttranden för avsikten, bara Google Assistant-plattformen (via API.AI) erbjuder några verktyg för att ställa in processen när åtgärden är live. åtminstone för tillfället erbjuder Google Assistant-plattformen mer strukturerat stöd för komplexa konversationer, tack vare inställningar för avsiktprioritet och kontextuppsättningar för avsikt input / output. När det gäller att kunna begränsa igenkänning av specifika avsikter till uppsättningar av förutbestämda ingångssammanhang blir det enklare att använda avsikter för att definiera en tillståndsbaserad konversation. Exempelvis definieras en avsikt att “begära ytterligare en rekommendation” när användarna säger “En till”

Kontolänkning

För att använda kliar på en röstaktiverad enhet länkar användare mycket enheten till sitt kliarkonto. Tjänster är likvärdiga i detta avseende, eftersom de båda stöder länkning av OAuth2-konto. Användare länkar sitt eget kliskonto till assistenten / Alexa (registrerar sig eventuellt först, om de inte har ett), och från och med det ögonblicket kan de njuta av en sömlös plattformsupplevelse, med sina betyg och rekommendationer tillgängliga på alla plattformar som stöds (Android / iOS / webb / assistent / Alexa)

Framtiden är röst

Sammanfattningsvis har vår utvecklingserfarenhet hittills visat att båda plattformarna är mycket lovande. Medan Amazon Alexa stod ut för sitt bättre domenspecifika ingångsigenkänning (även om det hittills bara finns tillgängligt för engelska – amerikanska kunskaper), tillhandahöll Google Assistant (kombinerat med API.AI) en mer konversationsorienterad plattform, vilket gjorde det lättare för oss för att hantera de relativt komplexa, statsbaserade användarflödena som krävs för vår itcher-åtgärd.

Vi tycker alltid om att lära oss av nya plattformar. Genom att arbeta med de två främsta i Virtual Assistant-industrin fick vi möjlighet att utveckla vår produkt så att den passar sömlöst in i framtiden.