Startseite   Kontakt   Suche de | en
/

Deep Learning für embedded Vision

/

Unterstützung programmierbarer Vision-Geräte.

Durch den Einsatz kleinerer, aber hoch-performanter Netze und der direkten Bildübertragung von der Kamera zur Bildverarbeitung sind CNNs prädestiniert für embedded Vision-Anwendungen. Sie sind auf Framegrabber-FPGAs, aber ebenso auf VisualApplets kompatiblen Kameras und Vision-Sensoren lauffähig. Besonders beim dezentralen Computing-Ansatz von Industrie 4.0 entsteht ein Bedarf an embedded Vision mit Deep Learning. Kleine Bildverarbeitungs-Einheiten oder auch intelligente Kameras übernehmen bereits heute anspruchsvolle Teilaufgaben.

Layer of FPGA devices | © Silicon Software GmbH

Da die meisten eingebetteten Geräte mit einem FPGA ausgestattet sind, haben sie ausreichend Performance für komplexere neuronale Netze. FPGAs sind im Vergleich zu GPUs besonders energieeffizient und gut für eingebettete und industrielle Anwendungen mit harten Echtzeitbedingungen geeignet, wie etwa Inline-Inspektion, Robotik und Pick&Place, kognitive Systeme sowie Mensch-Maschine-Interaktion (HMI). Weitere Anwendungen mit sehr geringer Fehlerrate liegen etwa im Umfeld von Qualitätssicherung, Medizintechnik, Drohnen und Automotive (autonomes Fahren).

Für Embedded Vision-Anwendungen unterstützt VisualApplets neben Framegrabbern ebenso FPGA-Drittgeräte wie Kameras und Vision-Sensoren. Hierzu wird mit VisualApplets Embedder eine Kompatibilitätsschicht zwischen der Hardware und dem VisualApplets Programmierkern eingerichtet. Dieser reservierte Teil des FPGAs ist mit VisualApplets beliebig oft programmierbar.