Your cart is currently empty!
NXP onthult edge-strategie voor machine learning
Kunstmatige intelligentie, machine learning, deep learning: vandaag de dag zijn deze termen bijna standaard kost voor ontwikkelaars van embedded systemen. Van iot-devices die met spraaksturing werken tot productiemachines die falen zien aankomen, lerende systemen worden snel populair in de embedded-wereld.
Maar het is nog vrij ongebruikelijk dat deze technieken ook in het embedded-domein draaien; de golf ai-toepassingen moet het tot nog toe veelal van een hulplijntje naar de cloud hebben. Dikwijls is er te veel rekenkracht of geheugen nodig, of het is uit ontwikkeloogpunt gewoon veel simpeler om de toepassing uit te rollen naar een server.
Er is echter een groeiende trend om de uitvoer te verplaatsen naar de edge, dus de devices zelf of systemen in de buurt. Een roundtrip naar een extern systeem kost immers tijd en data, wat onhandig kan zijn uit latency-, betrouwbaarheids- en kostenoogpunt. Ook vanuit privacy- of concurrentieoverwegingen kan het onaantrekkelijk zijn om voortdurend gegevens uit te wisselen met een derde partij.