Digitaler Zwilling

Der in Unity entwickelte Digitale Zwilling stellt eine hochdetaillierte digitale Kopie der Binnenterminalumgebung von Dresden bzw. Riesa dar.  Zweck des Artefaktes ist das Erstellen neuer und schwer generierbaren Daten wie gerosteten Containern und Videomaterial mit bestimmten Wind-, Wetter und  Tagesbedingungen. Zusätzlich lassen sich hier Drohnenflüge realisieren, die ohne Risiken, jedoch realitätsnah Ergebnisse liefern. 

Bilderkennungsmodelle

In Häfen weltweit wird die Bilderkennungstechnologie zunehmend als unverzichtbares Instrument zur Steigerung der Sicherheit und Effizienz eingesetzt. Durch die Analyse visueller Daten in Echtzeit ermöglichen Bilderkennungsmodelle eine präzise Überwachung von Frachtbewegungen und die frühzeitige Erkennung verdächtiger Aktivitäten. Maschinelles Lernen und künstliche Intelligenz ermöglichen eine automatisierte Reaktion auf potenzielle Risiken, was die Reaktionszeiten drastisch verkürzt und menschliche Fehler minimiert. Diese Technologie trägt nicht nur zur Sicherheit bei, sondern optimiert auch die Betriebsabläufe, indem sie die Effizienz der Hafenlogistik verbessert. In einer Zeit des zunehmenden Handelsvolumens und der komplexen Sicherheitsbedrohungen stellt die Integration von Bilderkennungstechnologien einen bedeutenden Fortschritt für Häfen dar, um den Herausforderungen des 21. Jahrhunderts gerecht zu werden.

Digitaler Zwilling (schematisch)

Der schematische digitale Zwilling (MapBox basiert) stellt eine weniger detailreiche Darstellung des Hafens dar. Er bildet den aktuellen Hafenzustand durch Identität und Position von Containern und Trailern ab und nutzt dazu eine Landkartendarstellung, auf welcher Ladeeinheiten angezeigt werden.  Genutzt werden kann der Zwilling vom Personal im operativen Betrieb, zur Routenplanung für Transportwägen und für sonstige Interessengruppen, die von einem Überblick über den Hafenzustand  profitieren. 

NeRF

Zusammen mit einem Studierenden der Universität Hamburg wurden an den Häfen aus Videomaterial 3D-Umgebungen extrahiert mit dem sogenannten NeRF Ansatz. Hierbei lernt ein Neuronales Netz aus Videomaterialien und gewinnt einen Eindruck über die 3D Objekte dieser Umgebung. Hieraus lassen sich auch Drohnenflüge in der Umgebung realisieren, die in der Realität so nicht stattgefunden haben. Das Anwenden von Objekterkennungsalgorithmen (hier YOLO) lieferte erfolgsversprechende Ergebnisse. 

Sensorbox

Ergänzend zur Überwachung mit Drohnen und fester Infrastruktur werden Daten im Terminal mittels einer Sensorbox erfasst. Diese ist mit verschiedenen Sensoren ausgestattet, um den Betrieb der Reachstacker und Trucks zu überwachen. Diese Sensoren umfassen GPS-Module zur präzisen Standortbestimmung, Abstandssensoren zur Überwachung des Beladungszustands und HD-Kameras mit Nachtsicht, die das Umfeld und die Arbeitsaktivitäten überwachen. Diese Daten werden in Echtzeit auf einem Edge-Gerät verarbeitet, das mit einer integrierten GPU für lokale Bildverarbeitung ausgestattet ist.