Maschinen dazu zu befähigen, ihre Umwelt exakt so wahrzunehmen wie Menschen, hat sich das in Berlin und Toronto ansässige Unternehmen twentybn zur Aufgabe gemacht. Dazu wurde eine Technologie entwickelt, die in Echtzeit Videos analysieren und deren inhaltliche Bedeutung erfassen kann. Basis dafür ist ein umfangreicher Fundus an Videodatensätzen. Diese bestehen aus kurzen Clips und beinhalten eine große Bandbreite an physischen und menschlichen Handlungen. Mit den Datensätzen werden die neuronalen Netzwerke von twentynb „vortrainiert“ und lassen sich dann mit relativ geringem Aufwand an spezifische Anwendungen anpassen – zum Beispiel für die Gestensteuerung in der Mensch-Maschine-Kommunikation, zum frühzeitigen Erkennen aggressiven Verhaltens im öffentlichen Raum oder für die inhaltliche Suche nach Videocontent.
https://www.twentybn.com/
(Bild: twentybn)
10/15 Zurück zum Artikel