Nieuws

NXP onthult edge-strategie voor machine learning

Pieter Edelman
Leestijd: 5 minuten

Kunstmatige intelligentie, machine learning, deep learning: vandaag de dag zijn deze termen bijna standaard kost voor ontwikkelaars van embedded systemen. Van iot-devices die met spraaksturing werken tot productiemachines die falen zien aankomen, lerende systemen worden snel populair in de embedded-wereld.

Maar het is nog vrij ongebruikelijk dat deze technieken ook in het embedded-domein draaien; de golf ai-toepassingen moet het tot nog toe veelal van een hulplijntje naar de cloud hebben. Dikwijls is er te veel rekenkracht of geheugen nodig, of het is uit ontwikkeloogpunt gewoon veel simpeler om de toepassing uit te rollen naar een server.

Er is echter een groeiende trend om de uitvoer te verplaatsen naar de edge, dus de devices zelf of systemen in de buurt. Een roundtrip naar een extern systeem kost immers tijd en data, wat onhandig kan zijn uit latency-, betrouwbaarheids- en kostenoogpunt. Ook vanuit privacy- of concurrentieoverwegingen kan het onaantrekkelijk zijn om voortdurend gegevens uit te wisselen met een derde partij.

This article is exclusively available to premium members of Bits&Chips. Already a premium member? Please log in. Not yet a premium member? Become one and enjoy all the benefits.

Login

Related content