apl. Prof. Al-Hamadi

Bild von Ayoub Al-Hamadi

apl. Prof. Dr.-Ing. habil. Ayoub Al-Hamadi

Fakultät für Elektrotechnik und Informationstechnik
Institut für Informations- und Kommunikationstechnik (IIKT)
Gebäude 09, Universitätsplatz 2, 39106 Magdeburg, G09-421

Aktuelle Projekte

Ein robustes, reliables und multimodales KI-System zur Schmerzquantifizierung
Laufzeit: 01.12.2023 bis 30.11.2026

In Deutschland leiden mehr als 1,7 Millionen Menschen an einer Demenz. Da diese von kognitiven Einschränkungen betroffen sind, sollten hier Fremdeinschätzungsinstrumente für die Schmerzerkennung eingesetzt werden, da bei dieser Patientengruppe die Selbstauskunft keine verlässliche Information darstellt. Daher ist die Schmerzerkennung bei Demenz eine große Herausforderung für das klinische Monitoring und wird dies auch auf unabsehbare Zeit bleiben. Somit ist die Entwicklung eines Systems zur Schmerzerkennung und -quantifizierung von großer Relevanz für zahlreiche Anwendungen im klinischen Umfeld, welches die Forderungen nach Robustheit und Zuverlässigkeit erfüllt. Zum Beispiel wäre dies in der Notfall- und Akutmedizin wünschenswert, um bei der Diagnosefindung eine derartige technische Unterstützung durch ein KI-System vorzusehen. Das Vorhaben wird die Entwicklung eines robusten, reliablen und multimodalen KI-Systems zur Schmerzerkennung und –quantifizierung adressieren. Es beschäftigt sich erstens mit dem Forschungsziel tiefe neuronale Netze und Transferlernen mit umfangreichen, bestehenden in-the-wild Datenbanken zum Anlernen von diversen Mimikmerkmalen und zur Erhöhung der Robustheit gegenüber verschiedener, in verfügbaren Schmerzdatensätzen unterrepräsentierter Varianzen (Erscheinungsbild, Beleuchtung, Teilverdeckung, etc.) einzusetzen, um die Grundlagen für eine Technologie zu schaffen, die für die zukünftige potentielle Verwendung im klinischen Umfeld mit Schwerpunkt der Applikation bei Demenzkranken, insbesondere für das postoperative Monitoring in Aufwachräumen, geeignet ist.

Projekt im Forschungsportal ansehen

Multimodale KI-basierte Schmerzmessung bei Intermediate Care Patienten in der postoperativen Phase
Laufzeit: 01.12.2023 bis 30.11.2026

Das Vorhaben beschäftigt sich mit Methoden der künstlichen Intelligenz zur automatisierten, multimodalen und kontinuierlichen Messung der Schmerzintensität in einer postoperativen Umgebung auf einer Intermediate Care Station nach größeren operativen Eingriffen. Langfristig soll die Technologie für Patienten mit eingeschränkten Kommunikationsfähigkeiten eine bessere Behandlung der Schmerzen und ihrer Ursachen ermöglichen, indem sie das medizinische Personal bei der Schmerzbeurteilung durch ein automatisiertes Echtzeitschmerzmonitoring unterstützt und entlastet sowie eine präzisere, individual- und situationsspezifische Analgesie möglich macht. Perspektivisch könnte die Technologie in weiterführenden Projekten auch für andere Patientenkollektive (z.B. Kinder und Demenzerkrankte) weiterentwickelt, validiert und eingesetzt werden.

Projekt im Forschungsportal ansehen

Assistenzbedürftigkeit in der Mensch-Roboter Kollaboration
Laufzeit: 01.08.2023 bis 31.07.2026

Die wissenschaftlichen Ziele beinhalten die Erforschung und Erprobung echtzeitfähiger Deep Learning Algorithmen zur

  1. Umgebungserfassung und Navigation mit SLAM-Algorithmen (Simultaneous Localisation and Mapping),
  2. Bewegungsschätzung dynamischer Objekte und Nutzerverfolgung in dichten Räumen,
  3. Personenerkennung und Identifikation in dichten Räumen und
  4. Erkennen der Interaktionsbereitschaft anhand Körper- und Kopfpose sowie Mimikmerkmalen

Ein weiteres wissenschaftliches Ziel besteht hierbei darin, die Algorithmen derart zu konzipieren, dass eine gemeinsame Optimierung der jeweiligen Teilziele mittels end-to-end learning erreicht werden kann.

Projekt im Forschungsportal ansehen

3D-basierte Mensch-Roboter Kollaboration mit räumlicher Situationsanalyse zur Ad-Hoc-Assistenz bei dynamischen Warentransportprozessen
Laufzeit: 01.09.2022 bis 31.08.2025

In diesem Projektvorhaben werden Methoden erforscht und entwickelt, die es einem mobilen Palettentransportroboter (FTS) ermöglichen, eine höhere semantische Situationsanalyse des logistischen Umfeldes für Werker-Roboter und Roboter-Roboter Interaktionen durchzuführen. Hierfür umfasst die erste Zielstellung die Kartenerstellung inklusive Selbstlokalisierung unter Einbeziehung dynamisch-semantischer Arbeitsobjekte. Eine weitere Zielstellung ist mittels der Entwicklung von latenzoptimierten Methoden zur Erkennung, Identifikation und Tracking von Werkern im logistischen Umfeld anhand von Körper-, Kopfpose und weiterer Indikatoren die Interaktionsbereitschaft abzuleiten, um effizient und robust mit dem agierenden Werker zu kollaborieren. Die Aktionen umfassen spezifische Tätigkeiten aus der Lagerlogistik (bspw. Abladen, Aufladen, Suchen von Paletten), welche durch Einbeziehung des Kontextes (Lokalisierung von Paletten, Ermittlung des Ladestatus) und von werkerzentrierten Gesten- und Sprachbefehlen bestimmt werden. Die entwickelten Lösungsansätze im Rahmen des Teilvorhabens tragen im Gesamtvorhaben dazu bei, eine gezielte Arbeitskoordination von mehreren Robotern und eine präzise und zielgerichtete Werker-Roboter Kollaboration robust und effizient zu ermöglichen (Übermittlung von Befehlen, Optimierung von Routen).

Projekt im Forschungsportal ansehen

Implizite mobile Mensch-Roboter-Kommunikation für die räumliche Handlungskoordination mit aktionsspezifischer semantischer Umgebungsmodellierung
Laufzeit: 01.09.2022 bis 31.08.2025

Der Einsatz von Robotern in der Industrie-, Arbeits- und Alltagswelt wird immer weiter flexibilisiert. Aktuelle Methoden zum maschinellen Lernen und zur adaptiven Bewegungsplanung führen zu einem wesentlich robusteren Verhalten und einer höheren Autonomie des Roboters. Dennoch finden bei kollaborativen Mensch-Roboter-Handlungen immer wieder Interaktionsabbrüche statt, in denen der Mensch das Bewegungsverhalten des Roboters nicht nachvollziehen kann. Eine häufige Ursache liegt darin, dass der Mensch ein falsches oder eingeschränktes Bild davon hat, was der Roboter gerade wahrnimmt und was dessen interner Zustand ist. Dies könnte vermieden werden, wenn der Roboter die mentalen Zustände und die Perspektive des Interaktionspartners in seiner eigenen Handlungsgenerierung nutzen könnte, um ein gemeinsames Verständnis der Handlung aktiv zu erzeugen. Eine Schlüsselkompetenz für eine derartige Zusammenarbeit von Menschen und Robotern ist die Fähigkeit zur Kommunikation und gegenseitigen Koordination über implizite Signale der Körpersprache und -bewegung. Das Projekt untersucht die implizite Mensch-Roboter-Kommunikation in kollaborativen Handlungen am Beispiel des gemeinsamen Aufbaus eines Regals. In experimentellen Studien werden gezielt Situationen erzeugt und aufgenommen, in denen die Interaktion und Perzeption zwischen dem Menschen und dem Roboter gestört ist. Es werden zum einen neue Perzeptionsmethoden erforscht, die interaktionsrelevante Merkmale anhand von Kopf-, Körperposen und Mimik robust bei Verdeckungen erkennen. Diese werden im Kontext der Handlung und der Umgebung interpretiert, so dass implizite Kommunikationssignale (z.B. Zuwenden, Abwenden, Einhalten, Andeuten, etc.) und interne Zustände (z.B. Zustimmung, Ablehnung, Interaktionsbereitschaft, etc.) abgeleitet werden können. Zum anderen werden Methoden erforscht, in denen der Roboter die Perspektive und den Zustand des Gegenübers in seiner eigenen Handlungsplanung berücksichtigt und dabei aktiv Nutzerreaktionen einfordert. Dies führt zu einer räumlichen Koordination der Interaktionspartner beim Aufbau des Regals, die die gegenseitige Wahrnehmung und das Handlungsziel berücksichtigt. Über einen aktiven Einsatz der Körperpose, relativen Ausrichtung und Bewegung des Roboters können Konfliktsituationen bereits im Vorhinein gelöst werden, ohne dass eine explizite Instruktion an den Roboter notwendig ist.

Projekt im Forschungsportal ansehen

Entwicklung und systematische Validierung eines Systems zur kontaktlosen, kamerabasierten Messung der Herzratenvariabilität
Laufzeit: 01.06.2022 bis 31.05.2025

Die Herzratenvariabilität (HRV) stellt wichtige Informationen für die medizinische Analyse des Herz-Kreislauf-Systems und die Aktivität des autonomen Nervensystems, sowie für die Diagnose und Prävention von Krankheiten bereit. Bei den herkömmlich verwendeten Systemen zur Überwachung der HRV handelt es sich um kontaktbasierte Techniken, deren Sensoren direkt am Körper der Person angebracht werden müssen, etwa ein Elektrokardiogramm (EKG) oder kontaktbehaftete Photoplethysmographie(PPG)-Verfahren. Diese Verfahren eignen sich jedoch nur bedingt für die Langzeitüberwachung oder die Früherkennung von Krankheitssymptomen. Zudem können diese einige negative Auswirkungen für die zu messende Person mit sich bringen, wie bspw. Hautirritationen, ein gesteigertes Verbreitungsrisiko von Krankheitserregern aufgrund des direkten Kontakts, etc.Ziel dieses Forschungsvorhabens ist die optische Messung der Herzratenvariabilität (HRV) aus Videobildern im RGB- und NIR-Bereich unter Verwendung der PPG. Bei der PPG handelt es sich um eine optische, nicht-invasive Technologie, die mithilfe von Licht die volumetrischen Schwankungen der Blutzirkulation in der Haut aufzeichnet. Dieses Verfahren wurde in den letzten Jahren durch den Einsatz von Kameras auch kontaktlos auf Distanz realisiert und bereits erfolgreich für die Bestimmung der Herzrate (HR) aus Videodaten eingesetzt. Für die Messung der HRV ist eine zeitlich präzise Bestimmung der Herzschläge (Peaks) im PPG Signal notwendig. Die hohe Messgenauigkeit der HR im Stand der Technik wird durch eine starke zeitliche Filterung erreicht. Hierdurch ist eine genaue zeitliche Lokalisation der Herzschläge jedoch nicht mehr möglich. Eine Herausforderung dabei ist, dass bereits kleinste Bewegungen und Mimik der Probanden zu Artefakten im PPG Signal führen. Hier setzt dieses Forschungsvorhaben an, in dem diese Artefakte im PPG-Signal systematisch erfasst und anschließend kompensiert werden. Bisher basieren fast alle Verfahren zur Messung des PPG-Signals auf Farbwert-Mittelwertbildung von (Teil-)Bereichen der Haut im Gesicht. Eine Bewegungskompensation ist mit diesen Verfahren nicht möglich, da Positionsinformationen hierbei verloren gehen. Um Modelle zu trainieren, die invariant gegenüber Bewegungen sind, eignen sich tiefe neuronale Netze (Convolutional Neural Network (CNN)). Unter Verwendung von Verfahren zur 3D Kopfposeschätzung und der Action-Unit Erkennnung (Gesichtsmuskelbewegungen), soll ein System trainiert werden, um aus den Videodaten bewegungsinvariante PPG-Signale zu gewinnen. Dazu werden Informationen über die detektierten Hautregionen in jedem Bild mithilfe neuer Segmentationsverfahren auf CNN-Basis generiert und für die Bewegungskompensation verwendet. Die durch dieses Netz gewonnenen Daten sollen mit einem weiteren auf zeitliche Signalverarbeitung optimierten rekurrenten Netzen (Long Short-Term Memory (LSTM)) weiterverarbeitet werden, um die Pulspeaks im PPG-Signal zeitlich exakt zu bestimmen.

Projekt im Forschungsportal ansehen

Abgeschlossene Projekte

Blickschätzung basierend auf dem kombinierten Loss von Regression und Klassifizierung
Laufzeit: 01.01.2022 bis 01.10.2024

Der menschliche Blick ist ein entscheidendes Merkmal, der in verschiedenen Anwendungen wie der Mensch-Roboter-Interaktion, dem autonomen Fahren und der virtuellen Realität verwendet wird. Kürzlich haben Ansätze mit Convolutional-Neural-Networks (CNN) bemerkenswerte Fortschritte bei der Vorhersage der Blickrichtung gemacht. Das Schätzen der genauen Blickrichtung in unkooperativen in-the-wild Situationen (d.h. mit Teilverdeckungen, stark variierenden Lichtverhältnissen usw.) ist jedoch immer noch ein herausforderndes Problem. Hierbei ist es besonders herausfordernd, die essentiellen Blickinformationen aus dem Augenbereich zu erfassen, da dieser nur einen kleinen Teil eines detektierten Gesichtes ausmacht. In diesem Projekt wird ein neues Multi-Loss-CNN-basiertes Netzwerk entwickelt, um die Winkel der Blickrichtung (Nick- und Gierwinkel) mit hoher Genauigkeit direkt aus Gesichtsbildern zu ermitteln. Indem wir die gemeinsamen Merkmale der letzten Schicht des Netzwerks trennen, sollen zwei unabhängige Fully-Connected Layer für die Regression der beiden Blickwinkel verwendet werden, um die Charakteristik jedes Winkels zu erfassen. Darüber hinaus soll eine Coarse-to-Fine-Strategie unter Verwendung eines Multi-Loss-CNN angewendet werden, das sowohl den Loss von Klassifizierung als auch Regression mit einbezieht. Wir führen eine Klassifizierung des Blicks durch, indem wir eine Softmax-Schicht mit dem Cross-Entropy-Loss kombinieren. Hieraus ergibt sich eine grobe Einordnung des Blickwinkels (Klasse). Um Blickwinkel zu prädizieren, berechnen wir die Klassenverteilung gefolgt von dem Regressions-Loss des Blickwinkels.

Projekt im Forschungsportal ansehen

Personenidentifikation in realer Mensch-Roboter-Interaktionsumgebung
Laufzeit: 02.11.2020 bis 30.04.2024

Die wissenschaftlichen Ziele des Projektes beinhalten die Erforschung und Erprobung echtzeitfähiger Deep Learning Algorithmen zur

  1. Personenerkennung und Identifikation in dichten Räumen und
  2. Erkennen der Interaktionsbereitschaft anhand Körper- und Kopfpose sowie Mimikmerkmalen

Ein weiteres wissenschaftliches Ziel besteht hierbei darin, die Algorithmen derart zu konzipieren, dass eine gemeinsame Optimierung der jeweiligen Teilziele mittels end-to-end learning erreicht werden kann.

Projekt im Forschungsportal ansehen

Die Wirkung des Einsatzes KI gestützter Technologie zur Lügenerkennung in Verhandlungen
Laufzeit: 01.10.2021 bis 29.02.2024

Die zunehmende Digitalisierung gesellschaftlicher und ökonomischer Interaktionen verläuft mit einer erheblichen Geschwindigkeit. Forschung zu Digitalisierungsprozessen sollte dabei zwei Erkenntnisgegenstände miteinander in Einklang bringen, die für gewöhnlich allerdings getrennt voneinander untersucht werden: Erstens die Frage der technischen Entwicklung und zweitens die Frage der Auswirkungen dieser Entwicklung auf menschliches Verhalten. In dem hier beantragten Projekt soll der Versuch unternommen werden, beide Perspektiven in einem interdisziplinären Zugang miteinander zu verbinden, wobei der Schwerpunkt zwar auf der Verhaltensanalyse liegt, die technische Komponenten aber dennoch stark vertreten ist. Der Anwendungsfall, der für diese Art der Analyse von Digitalisierungsprozessen gewählt wird, ist das Phänomen asymmetrischer Information. Konkret wird untersucht, inwieweit das Paradigma der asymmetrischen Informationsverteilung durch den Einsatz von KI Technologien zumindest teilweise obsolet geworden ist. In unserem interdisziplinären Projekt möchten wir, anstatt die technologische Entwicklung auf dem Gebiet der maschinellen Lügendetektion abzuwarten, unsererseits zum technologischen Fortschritt beitragen und gleichzeitig die möglichen gesellschaftlichen Folgen dieser Technologie experimentell untersuchen. Das Projektvorhaben verbindet zwei Forschungsbereiche: Wirtschaftswissenschaften (WW) sowie Neuro-Informationstechnik (NIT). In beiden Bereichen spielt die Identifikation privater Information eine große Rolle, wird jedoch aus unterschiedlichen Blickwinkeln betrachtet. Während die ökonomische Analyse sich auf die Rolle und Wichtigkeit privater Information in Verhandlungssituationen fokussiert, steht bei NIT die Machbarkeit und Qualität einer automatisierten Erkennung persönlicher Charakteristiken im Vordergrund.

Projekt im Forschungsportal ansehen

Autonome Navigation und Mensch-Maschine-Interaktion eines mobilen Roboters in Outdoor-Anwendungen
Laufzeit: 15.09.2019 bis 31.05.2022

Das Gesamtziel dieses Projekts besteht darin, Methoden zu erforschen, die es einem mobilen Robotersystem ermöglichen, im Außenbereich autonom zu navigieren, potentielle und spezifische Interaktionspartner zu identifizieren, ihre Interaktionsbereitschaft zu erkennen, mit ihnen zu interagieren und die Interaktionspartner zum Aufrechterhalten der Kooperation mittels Bewegungsanalyse in dichten Räumen zu verfolgen.
Die wissenschaftliche und technische Herausforderung besteht darin, das Umfeld des mobilen Roboters so zu erfassen, dass eine präzise Selbstlokalisation und darauf aufbauend eine effiziente Navigation in einer Outdoor-Umgebung zum Auffinden kooperierender Personen erfolgen kann. Dabei soll auf Vorabinformationen aus der Umgebung des Roboters, wie z.B. Marken möglichst verzichtet werden. Der Roboter soll ausschließlich auf Grund seines eigenen optischen Systems eine anfangs unbekannte Umgebung erfassen und sich darin zurechtfinden.
Eine weitere Herausforderung besteht bei der Verfolgung von Interaktionspartnern in dichten Räumen. Hierunter sind Umgebungen mit mehreren potentiellen Interaktionspartnern und dynamischen Szenenobjekten und damit verbundener Verdeckungssituationen zu verstehen. Unterschreiten zwei Objekte einen bestimmten räumlichen Abstand, können diese nicht eindeutig voneinander separiert werden, so dass eine Verfolgung (Tracking) der zu verfolgenden Personen stark erschwert wird.
Eine besondere Herausforderung von unbekannten, dichten Räumen besteht darin, dass zudem die potentiellen Interaktionspartner nicht a-priori bekannt sind, sondern zunächst identifiziert werden müssen. Dies umfasst sowohl die reine Personenerkennung als auch die Bewertung ihrer Interaktionsbereitschaft.
Um diese Herausforderungen zu bewältigen, sind verschiedene technische und wissenschaftliche Teilprobleme zu lösen, wobei die Erforschung von Methoden zur Umgebungserfassung, Navigation und Interaktion mittels künstlicher Intelligenz (KI) aus wissenschaftlicher Sicht und der Aufbau des Robotersystems aus technischer Sicht im Fokus stehen.

Projekt im Forschungsportal ansehen

Multimodale Erkennung von Druck- und Hitzeschmerzintensität
Laufzeit: 30.11.2017 bis 31.03.2022

Der Fokus dieses Projektes ist die Verbesserung der Schmerzdiagnostik und des Monitorings von Schmerzzuständen. Durch die Nutzung von multimodalen Sensortechnologien und hocheffektiver Datenklassifikation kann eine reliable und valide automatisierte Schmerzerkennung ermöglicht werden. Um dieses Ziel zu erreichen, wird durch die Kombination neuer innovativer Methoden der Datenanalyse, der Mustererkennung und des maschinellen Lernens auf Daten eines experimentellen Protokolls eine vielversprechende Strategie der objektiven Schmerzerkennung entwickelt. Um Merkmale extrahieren und selektieren zu können, werden die experimentellen Daten seriell mit komplexen Filtern und Dekompensationsmethoden vorverarbeitet. Die so gewonnenen Merkmale sind die Voraussetzung für eine robuste automatisierte Erkennung der Schmerzintensität in Realzeit.

Projekt im Forschungsportal ansehen

Intentionale, antizipatorische, interaktive Systeme (IAIS)
Laufzeit: 01.01.2018 bis 31.12.2021

Intentionale, antizipatorische, interaktive Systeme (IAIS) stellen eine neue Klasse nutzerzentrierter Assistenzsysteme dar und sind ein Nukleus für die Entwicklung der Informationstechnik mit entsprechenden KMUs in Sachsen-Anhalt. IAIS nutzt aus Signaldaten abgeleitete Handlungs- und Systemintentionen sowie den affektiven Zustand des Nutzers. Mittels einer Antizipation des weiteren Handelns des Nutzers werden Lösungen interaktiv ausgehandelt. Die aktiven Rollen des Menschen und des Systems wechseln strategisch, wozu neuro- und verhaltensbiologische Modelle benötigt werden. Die im vorhandenen Systemlabor, auf Grundlage des SFB-TRR 62, applizierten Mensch-Maschine-Systeme haben dann das Ziel des Verständnisses der situierten Interaktion. Dies stärkt die regionale Wirtschaft bei der Integration von Assistenzsystemen für die Industrie 4.0 im demographischen Wandel wesentlich.

Projekt im Forschungsportal ansehen

Human Behavior Analysis (HuBA)
Laufzeit: 01.10.2017 bis 30.06.2021

Das Projekt etabliert eine Nachwuchsforschungsgruppe zur Erforschung neuer und verbesserter Methoden der Informationsverarbeitung zum automatisierten Verstehen des menschlichen Verhaltens. Zum menschlichen Verhalten zählen wir hierbei alle äußerlich wahrnehmbaren Aktivitäten wie Körperhaltungen, Gesten und Mimiken, die bewusst oder unbewusst gezeigt werden. Anhand des Verhaltens soll auch auf eventuell zugrunde liegende Befindlichkeiten des Menschen geschlossen werden.

Projekt im Forschungsportal ansehen

Human-Machine-Interaction Labs - Roboter Labor
Laufzeit: 01.09.2019 bis 30.09.2020

Ziel des Projektes "Robo-Labs" ist die nachhaltige Weiterführung der erarbeiteten Ergebnisse zur Mensch-Maschine-Interaktion in der NIT-Gruppe. Zu diesem Ziel trägt das Robo-Lab folgendermaßen bei:

  1. Die Erforschung und Umsetzung von Methoden zur Mensch-Maschine-Interaktion mittels künstlicher Intelligenz (KI) bedarf große Rechenkapazitäten und große Datenmengen. Mit Hilfe eines Deep-Learning Rechners soll genügend Rechenkapazität geschafft werden, um auch in Zukunft international Konkurrenzfähig zu bleiben.
  2. Um den gleichzeitig weiter steigenden Datenbedarf zu decken, soll eine Laborumgebung geschaffen werden, die eine multimodale Datenaufnahme in der Mensch-Roboter-Kollaboration (MRK) erlaubt. Dazu soll die im Labor vorhandene Sensorik erweitert werden und eine Umgebung zur Datenaufnahme für die natürliche Mensch-Roboter-Interaktion geschaffen werden.
  3. Ein mobiler Roboter und ein stationärer Roboter sollen unterschiedliche technische Fertigungsprozesse und assistierende Systeme nachbilden können und damit MRK-Situationen ermöglichen, die in Demonstratoren in laufenden 3Dsensation Projekten und darüber hinaus umgesetzt werden.
  4. Das Robo-Lab baut das Kompetenzprofil der NIT-Arbeitsgruppe weiter in Richtung Mensch-Roboter-Interaktion aus und schafft durch die zusätliche sensorische Ausstattung eine einmalige, international konkurenzfähige Laborumgebung für Forschung und Lehre.
  5. Lauftende und künftige Projekte können mit dem Robo-Lab unterstützt werden, da eine einmalige Umgebung für die Entwicklung von Demonstratoren sowie zur Datenaufnahme und Datenverarbeitung geschaffen wird. Das Robo-Lab ermöglicht Forschung auf Spitzenniveau und erlaubt weitere Forschungsbemühungen.

Projekt im Forschungsportal ansehen

Ergonomics Assistance Systems for Contactless Human-Machine-Operation
Laufzeit: 01.01.2017 bis 31.03.2020

Ziel des Projekts ist das Erforschen und die Demonstration neuer Technologien und Entwurfsmethoden bzw. in den Arbeitskontext integrierten Bedienkonzepte für die Mensch-Maschine-Interaktion (MMI) und Mensch-Maschine-Kooperation (MMK), mit deren Hilfe die Eingabe/Steuerung durch den Menschen, die Ausgabe der Informationen durch die Maschine und die Kollisionsvermeidung für kommerzielle Produkte und in den industriellen Produktionsumfeld realisiert werden kann. Damit sollen auch KMUs in den gesellschaftlichen und ökonomischen Bedarfsfeldern Gesundheit und Produktion befähigt werden, Interaktionskonzepte und informationsorientierte Visualisierungslösungen die ein sicheres, ergonomisches und applikationsorientiertes Arbeiten im Verbund von Mensch und Maschine erlauben, in einer gemeinsamen Wertschöpfungskette entwickeln und vermarkten zu können. Diese Konzepte werden in die nächsten Generationen von Geräteentwicklungen und Produktionsanlagen der Industriepartner einfließen. Im Vordergrund steht dabei eine hohe Integration der Robotik-Systeme durch schnelle Situationserfassung und -verarbeitung unter Einbeziehung von Multi-Sensordaten für Mehr-Nutzer-Szenarien.

Projekt im Forschungsportal ansehen

Mimische und Gestische Expressionsanalyse zur Angstmessung
Laufzeit: 01.11.2017 bis 29.02.2020

Industrieroboter sind in heutigen Produktionsanlagen quasi allgegenwärtig - arbeiten aus Sicherheitsgründen in der Regel jedoch räumlich getrennt vom Menschen. Ein Hemmnis für eine enge Zusammenarbeit, in der  beide ihre Vorteile ausspielen könnten (Mensch: Wahrnehmung, Urteilsvermögen, Improvisation; Roboter: Reproduzierbarkeit, Produktivität, Kraft), besteht in der Angst des Menschen vor dem Roboter:  Auf Grund der potentiellen Verletzungsgefahr bei Kollision oder der Unkenntnis der technischen Zusammenhänge sperrt sich der Mensch innerlich gegen die Kollaboration, agiert unkonzentriert und neigt zu ruckartigen Reflexbewegungen. Das beeinträchtigt die Produktqualität und erhöht die Wahrscheinlichkeit gefährlicher Unfälle. Das Ziel dieses Projekts besteht daher darin, den Menschen im Produktionsumfeld sicher zu erkennen und Verfahren zur objektiven, individuellen und situativen Angstschätzung auf Basis sensorisch erfasster Gestik- und Mimikexpressionen zu entwickeln. Auf potentiell erkannte Ängste kann mittels geeigneter Interaktionsmaßnahmen situationsgerecht reagiert und somit ein Vertrauen zwischen Mensch und Maschine geschaffen werden, das die Basis für eine wirtschaftlich attraktive Mensch-Roboter-Kollaboration bildet.

Projekt im Forschungsportal ansehen

Hyperspektrale Vitalparameterschätzung zur automatischen kontaktlosen Stresserkennung
Laufzeit: 01.01.2017 bis 30.09.2019

Das Projekt ist Teil des Verbundprojektes "HyperStress" des Graduierkollegs der Allianz "3d-Sensation". Stress gilt als größter Belastungsfaktor am Arbeitsplatz und erlangt seit Jahren großes Forschungsinteresse. Jedoch existieren keine Verfahren für eine hindernisfreie (Gefahrenbeurteilung) und störungsfreie (Limitierungen durch die Arbeitstätigkeit) Erfassung der für Stress ausschlagegebenden Vitalparameter. Ziel des Projektes ist die Entwicklung eines  Demonstrators, der eine kontaktlose Stressdetektion ermöglicht. Ein robustes genaues System mit ansprechender benutzerfreundlicher Visualisierung der Daten ist das Ziel des Projektes.

Projekt im Forschungsportal ansehen

Kontaktfreie kamerabasierte Messung von Vitalparametern mit verbesserter Störsicherheit
Laufzeit: 01.07.2017 bis 30.06.2019

Die Erfassung von wichtigen Vitalparametern des Menschen, wie der Herzrate, Atmung, Herzratenvariabilität und Sauerstoffsättigung des Blutes, sind von großer Bedeutung für die Diagnostik und Überwachung des Gesundheitszustands. Im Projekt sollen neue Daten gewonnen werden, um die Genauigkeit der bisher entwickelten Verfahren  zur Schätzung der  Vitalparameter signifikant zu verbessern. Die verwendete Hauterkennung soll generalisiert werden und  robustere  Ergebnisse  in  Echtzeit  liefern  können.  Zudem  sollen  aufgrund  der  neuen  zusätzlichen Informationen  (z.B.:  3D-Daten,  Infrarotbilder),  auch  die  Verfahren  zur  Merkmalsextraktion,  -selektion und -reduzierung optimiert werden.

Projekt im Forschungsportal ansehen

Optisches Messverfahren mit räumlich verteilten Licht-Projektionen zur hochaufgelösten und schnellen 3D-Oberflächenrekonstruktion
Laufzeit: 01.12.2017 bis 30.11.2018

Das Vorhaben zielt darauf ab, ein neues aktives 3D-Messverfahren zu entwickeln, das ohne einen auf Zentralprojektion basierenden digitalen Projektor auskommt. Dabei sollen durch hohe Lichtintensität kurze Integrationszeiten für die Gesamtmessung gewährleistet werden. Insbesondere wird eine prinzipielle Skalierbarkeit der Beleuchtungsstärke angestrebt, so dass auch größere Messflächen, wie sie in der industriellen Produktion häufig vorkommen, zeiteffizient vermessen werden können. Durch ein Multikamerasystem soll auch eine erhebliche Reduzierung von Abschattungen bei der Vermessung komplexer Teile erreicht werden, um Messungen aus unterschiedlichen Positionen zu vermeiden.

Projekt im Forschungsportal ansehen

Optimierung der Reliabilität und Spezifität der automatisierten multimodalen Erkennung von Druck- und Hitzeschmerzintensität
Laufzeit: 01.09.2015 bis 31.05.2018

Derzeit gebräuchliche Methoden zur klinischen Schmerzmessung sind nur begrenzt reliabel und valide, sie sind zeitaufwendig und können nur bedingt bei Patienten mit eingeschränkten verbalen Fähigkeiten eingesetzt werden. Wenn eine valide Schmerzmessung nicht möglich ist, kann dies zu stressbedingtem kardiologischem Risiko, zu Über- oder Unterversorgung von Analgetika und zu einer suboptimalen Behandlung von akutem und chronischem Schmerz führen.

Der Fokus dieses Projektes ist daher die Verbesserung der Schmerzdiagnostik und des Monitorings von Schmerzzuständen. Durch die Nutzung von multimodalen Sensortechnologien und hocheffektiver Datenklassifikation kann eine reliable und valide automatisierte Schmerzerkennung ermöglicht werden. Um dieses Ziel zu erreichen, wird durch die Kombination neuer innovativer Methoden der Datenanalyse, der Mustererkennung und des maschinellen Lernens auf Daten eines experimentellen Protokolls eine vielversprechende Strategie der objektiven Schmerzerkennung entwickelt. Biomedizinische, visuelle und Audiodaten werden unter experimentellen und kontrollierten Schmerzapplikationen bei gesunden Versuchspersonen gemessen. Um Merkmale extrahieren und selektieren zu können, werden die experimentellen Daten seriell mit komplexen Filtern und Dekompensationsmethoden vorverarbeitet. Die so gewonnenen Merkmale sind die Voraussetzung für eine robuste automatisierte Erkennung der Schmerzintensität in Realzeit.

Projekt im Forschungsportal ansehen

Aktive Zeilenkamerasysteme zur schnellen und hochauflösenden 3D-Vermessung großer Oberflächen
Laufzeit: 01.12.2015 bis 01.03.2018

Im Rahmen des BMBF-Förderprogramms Zwanzig20-Partnerschaft für Innovation wird ein Verbundprojekt mit  Partnern aus Industrie und Wissenschaft durchgeführt. Ziel des BMBF Projektes  ist es, technologische Grundlagen für Sensoren zur hochauflösenden und hochdynamischen 3D-Erfassung von Objekten und Oberflächen zu entwickeln. Im Teilprojekt der Otto-von-Guericke Universität stehen diesbezüglich große Oberflächen von Werkstücken aus der industriellen Produktion im Vordergrund. Grundidee ist es, durch die Entwicklung von Zeilenkamerasystemen mit geeigneter strukturierter Beleuchtung technologisch bedingte Beschränkungen von Matrixkamerasystemen insbesondere bei der Vermessung bewegter Oberflächen an Fließbändern oder bei Endlosmaterial zu überwinden.

Projekt im Forschungsportal ansehen

Augmented-Reality-System zur Unterstützung von Materialprüfung und Qualitätskontrolle auf industriellen Anlagen - Datenfusion räumlich erfasster Messwerte in der AR-Anwendung
Laufzeit: 01.02.2016 bis 28.02.2018

Das Kooperationsprojekt bedient Bedürfnisse hinsichtlich manueller Prüftechniken zur Materialinspektion und Qualitätssicherung auf industriellen Anlagen.  Ein wesentliches Ziel ist es, einen menschlichen Prüfer während der Inspektion durch ein Augmented-Reality-System zu unterstützen. Der Begriff Augmented Reality (AR) bezieht sich hier auf die computergestützte Erweiterung der menschlichen visuellen Realitätswahrnehmung durch das Einblenden zusätzlicher virtueller Informationen in das Sichtfeld des Inspekteurs z.B. über eine Datenbrille. Bei diesen zusätzlichen Informationen handelt es sich im Rahmen der Anwendung um Messergebnisse aus vorangegangenen Inspektionen sowie virtuelle Modelle der realen Prüfobjekte aus einer eigens zu entwickelnden Datenbank. Zusätzlich sollen aktuelle Messergebnisse mit räumlichen Bezug zur Oberfläche des Prüfobjektes eingeblendet werden. Als Bezugsquelle dient ein optisches Messsystem, welches mit dem jeweiligen Prüfgerät gekoppelt ist und die Daten in Echtzeit dem AR-System zur Darstellung zur Verfügung stellt.

Projekt im Forschungsportal ansehen

Mechanismen nonverbaler Kommunikation: Mimische Emotionserkennung sowie Analyse der Kopf- und Körpergestik
Laufzeit: 01.01.2013 bis 31.12.2017

Benutzeradaptives Verhalten stellt eine grundlegende Eigenschaft von Companion-Technologien dar. Voraussetzung hierfür sind sensorische Fähigkeiten, die das System in die Lage versetzen, Rückschlüsse auf den Nutzerzustand (Disposition) und weitere situationsbedingte kommunikationsrelevante Parameter aus nonverbalen Signalen zu ziehen. Teilprojekt C3 leistet durch die visuelle Analyse der Gesichtsmimik sowie der Kopf- und Körperpostur/-gestik einen elementaren Beitrag, um eine möglichst reichhaltige systemseitige Repräsentation der Nutzerdisposition abzuleiten. Die zeitliche Analyse der Kopf- und Körpergestik ermöglicht es zudem, Aktionen und Intentionen eines Nutzers zu erkennen oder solche zu prädizieren. Die Modellierung kognitiver Architekturen basierend auf biologischen Prinzipien hilft, universelle Ansätze zur Informationsverarbeitung und der lernbasierten Adaptationsfähigkeit zu entwickeln.

Projekt im Forschungsportal ansehen

Innovatives Konzept zur bildbasierten Kopfposeschätzung und Fahrerzustandserkennung
Laufzeit: 01.03.2014 bis 01.09.2017

Dieses Projekt beinhaltet die Entwicklung robuster Ansätze zur bildbasierten Fahreranalyse mit dem Ziel einer Erhöhung der Sicherheit und des Fahrkomforts. Es geht dabei sowohl um die Erkennung als auch die Simulation relevanter Parameter wie Kopfpose, Blickrichtung, Lidschlag und im weiteren Verlauf Mimik. Insbesondere sollen durch Verwendung aktiver sowie Multikameratechnologien sehr robuste Verfahren entwickelt werden, welche den Anforderungen des Einsatzes unter realen Bedingungen gerecht werden. Die bildbasierte computergrafikbasierte Simulation unter vordefinierten Parametern soll weiterhin die Validierung bereits vorhandener Technologien ermöglichen.

Projekt im Forschungsportal ansehen

Kontaktfreie kamerabasierte Messung von Vitalparametern mit verbesserter Störsicherheit
Laufzeit: 01.07.2015 bis 01.07.2017

Herzrate,  Atmung  und  Herzratenvariabilität  sind  wichtige  Vitalparameter  des  Menschen.  Momentan vertriebene Geräte zur Messung dieser Parameter verwenden ausschließlich kontaktbasierte Messmethoden. Diese sind mit einigen Nachteilen verbunden. Das  Ziel  des  angestrebten  Forschungsvorhabens  ist  die  Entwicklung  einer  3D-bildbasierten,  kontaktfreien Messmethode, die dem Nutzer maximale Bewegungsfreiheit und maximalen Komfort bietet, robust und schnell funktioniert und einfach zu verwenden ist.

Projekt im Forschungsportal ansehen

Umgebungserkennung
Laufzeit: 01.01.2013 bis 30.12.2016

Ziele des Teilprojekts C1 sind die Umgebungserkennung und -modellierung sowie die intentionsbasierte Interpretation von Gesten potentieller Benutzer eines Companion-Systems. Zur Umgebungsmodellierung werden neue Methoden zum Multi-Objekttracking, zur Informationsfusion und zeitlichen Filterung erforscht und weiterentwickelt, basierend auf der Random Finite Sets Theorie und dem Joint Integrated Probabilistic Data Association Filter, die eine gleichzeitige Schätzung der Objektexistenz und des Objektzustandeserlauben. Die Erkennung von Nutzergesten erfolgt bildbasiert und stellt die Grundlage für eine intentionsbasierte Interpretation der Gesten- und Aktionssequenzen anhand von Intentionsreferenzmodellen dar. Diese stellen den direkten Bezug zwischen allen Intentionshypothesen auf Grundlage eines Applikationskontextes und dem fusionierten Merkmalsvektor aus Gestensequenzen her. Die Hypothese mit dem maximalen Evaluierungsmaß soll der Benutzerintention entsprechen.

Projekt im Forschungsportal ansehen

Crowd Behavior Analysis in Video Sequences
Laufzeit: 01.10.2013 bis 01.10.2016

The analysis of human activities in crowded scenes is the most challengeable tasks in computer vision. Tracking and understanding individuals actions in dense scenes is a problem till yet not be fully solved due to occlusion between objects.
The new area of interest in computer vision is the crowd behavior analysis and modeling. Broadly speaking, there are two levels of crowd analysis: 1) individual level and 2) global level. At the individual level, the goal is to extract and understand behavior of each moving object in the crowd. At the global level, the goal is to model the behavior of the group as a whole. In both cases, one can perform behavior understanding and anomaly detection by analyzing motion features and characterizing so-called “normal behavior”. In contrast, detecting “anomaly” or “abnormal behavior” refers to the action of locating activities that do not conform to “normal behavior” or fall in its respective labeled class.
In this project we will focus on the modeling of crowd-flow solutions without tracking. After the modeling of crowd behavior, we will be able to detect high-level abnormalities such as traffic jams, crowd of people running amok, etc.

Projekt im Forschungsportal ansehen

Hochaufgelöste Oberflächenforminspektion großflächiger industrieller Oberflächen
Laufzeit: 01.11.2014 bis 30.04.2016

Hochwertige Oberflächen sind eine Herausforderung insbesondere bei hochpreisigen Gütern wie z.B. Karosserie-Außenhautteilen für die Automobilindustrie. Systeme für die Oberflächenforminspektion sind in der Lage, kleinste Deformationen zu erkennen. Diese Systeme sind allerdings auf kleine Messbereiche beschränkt.Verfahren zur Verrechnung mehrerer Teilbereiche sind z.B. aus der Geometrievermessung bekannt. Die so zusammengeführten großflächigen Bereiche genügen jedoch nicht den Anforderungen an Genauigkeit und Auflösung, die für eine Oberflächenforminspektion notwendig sind.Ziel des Projektes ist es daher, ein Messsystem zu entwickeln, das die Oberflächenforminspektion auf großflächigen industriellen Oberflächen ermöglicht.

Projekt im Forschungsportal ansehen

Nicht-intrusive intentions-adaptive Interaktionen in HCI-Umgebung
Laufzeit: 01.10.2012 bis 30.03.2016

Der Fokus des PhD-Projektes liegt auf der Entwicklung eines nicht-intrusiven bildbasierten Systems zur intentionsbasierten Interpretation von Benutzeraktionen auf der Grundlage von Multi-Modalitäten (z.B. Audio-, Mimik- und Aktionsanalyse), dessen Grundidee unabhängig von der Anwendung möglichst allgemein gültig sein soll.

Da die Interpretation von längeren Benutzeraktionen aufgrund von Benutzerfehlern, ungewöhnlicher Artikulation oder ungewöhnlichen Rahmenbedingungen immer komplexer wird, liegen die Forschungsschwerpunkte in diesem PhD-Projekt einerseits in der nicht-intrusiven Erfassung von Aktionen inklusive der Interpretation, andererseits in der geeigneten Repräsentation des Diskurskontextes und der Implementierung einer Bewertungsstrategie zum bestehenden emotionalen und intentionalen Zustand des Benutzers im Mehrpersonenszenario.

Projekt im Forschungsportal ansehen

3D-Gesteninteraktion und Fusion von 3D-Bildern (GestFus)
Laufzeit: 01.11.2014 bis 01.03.2016

In der Allianz 3Dsensation arbeiten Partner aus verschiedenen wissenschaftlichen und wirtschaft­lichen Bereichen mit unterschiedlichen Kompetenzen zusammen. Diese führen Form von Kon­sortien FuE-Projekte durch.Ziel in diesem Basisprojekt ist die Erarbeitung von Grundlagen für zwei Themenbereiche, die sich im Strategieprojekt zu 3Dsensation als besonders relevant und mit hohem Synergiepotential aus­gestattet herausgestellt haben:

a)       die 3D-Gesteninteraktion und
b)       die Fusion von 3D-Bildern unterschiedlicher Quellen (inkl. Augmented Reality).
Im Institut für Informations- und Kommunikationstechnik der Otto-von-Guericke Universität Magdeburg werden die wissenschaftlichen Grundlagen und Forschungsergebnisse im Bereich 3D-Gestenineraktion bearbeitet. Diese Themen sollen nicht nur aufgearbeitet und auf die Themen von 3Dsensation fokussiert, sondern zusätzlich so aufbereitet werden, dass sie auch von den Partner späterer FuE-Projekte verstanden und umgesetzt werden können, die sich mit diesen Themen bisher nicht oder nur wenig beschäftigt haben.
Ein weiteres Ziel des Vorhabens ist die Erarbeitung und Definition eines Sets von Basisgesten . Dies ist eine Sammlung von Gesten z.B. zum Nehmen , Geben , in Räumen Navigieren , Bestätigen , Not-Aus"  usw., die in verschiedenen Anwendungsfeldern möglichst universell eingesetzt werden können.
Ein wesentlicher Aspekt wird auch in Hand- und Körperbewegungen gesehen, die im Sinne der Vorausschau das Erkennen potentieller Gefahrensituationen bei der sicheren Mensch-Maschine-Kooperation gestatten.
Für die wichtigsten Gesten soll ein Demonstrator entwickelt werden, der die Gesteninteraktion als Proof-of-Concept validiert und veranschaulicht.Auch für die mimische Interaktion soll ähnlich wie in Bezug auf die Gesten-Interaktion verfahren werden.

Projekt im Forschungsportal ansehen

3D-Sensorprinzipien
Laufzeit: 01.11.2014 bis 01.03.2016

Im Rahmen des BMBF-Förderprogramm Zwanzig20 Partnerschaft für Innovation wird für die Allianz "3DSensation" eine Studie zur branchenübergreifenden Anwendbarkeit von 3D-Sensorprinzipien durchgeführt. Gesamtziel dieses Basisprojektes ist die Identifikation von technologie- und bedarfsfeldübergreifendem F&E Bedarf auf dem Gebiet der 3D-Sensorik, um die vollständige 3D-Erfassung und 3D-Interaktion durch Maschinen zu verbessern. Dazu ist eine rigorose wissenschaftliche Analyse und Bewertung unterschiedlichster vorhandener 3D-Sensortechnologien erforderlich bei Einbeziehung möglichst vieler Partner mit unterschiedlichsten Kompetenzen. Aufbauend auf dieser Grundlage gilt es, das Potential möglicher 3D-Sensorinnovationen zu analysieren.
Im Teilprojekt der Otto-von-Guericke Universität sollen insbesondere Verfahren präzisen und schnellen 3D-Oberflächenvermessung untersucht werden. Im Fokus stehen photogrammetrische Messverfahren die mit aktiver und passiver Beleuchtung arbeiten.

Projekt im Forschungsportal ansehen

Mobile Object Tracking Using Metaheuristics
Laufzeit: 01.10.2013 bis 01.01.2016

This research project is a fund supporting a collaboration between the University Mohammed 5, Morocco and the Otto-Von-Guericke University, Germany. This cooperation is under the framework of a sandwich program, and the topic of the financed research is "Mobile object tracking using metaheuristics". After having successfully integrated the cuckoo search optimization algorithm, which is a recent and highly discussed metaheuristic, combined with the Kalman filter into the task of tracking a single object in a video sequence, we are now aiming for the integration of the modified cuckoo search algorithm in the tracking of multiple moving objects. This should lead to a robust tracker providing accurate real-time performances. The main aim of this research cooperation project is, on the one hand to build a connexion between the Moroccan and the German university, and on the other hand to develop the quality of Moroccan researches and connect the Moroccan research community with the international industry.

Projekt im Forschungsportal ansehen

Trackingbasierte 3D-Rekonstruktion laminarer Risse und Rissbrücken durch Auswertung von Ultraschallsignalen
Laufzeit: 01.07.2014 bis 01.01.2016

Wasserstoffinduzierte Rissbildung bei Behältern zur Medienspeicherung stellt für den Betrieb  von Raffinerien und chemischen Anlagen einen erheblichen Risikofaktor dar. Die derzeit verfügbaren Prüfmethoden bei regelmäßig durchzuführenden Revisionen  basieren im Wesentlichen auf einzelnen Ultraschallmessungen und einer subjektiven Schätzung zur Flächenausdehnung detektierter Risse. In der Praxis werden dadurch die Behälter oft früher ausgetauscht als zwingend notwendig wäre. Ziel des Projektes ist die Entwicklung einer neuen Technologie, die eine dreidimensionale Rekonstruktion wasserstoffinduzierter Rissbildung  ermöglicht. Durch das Aussenden breitbandiger longitudinaler und transversaler Ultraschallwellen, kann durch Triangulation auf die exakte geometrische Position eines Risses im Material geschlossen werden. Die neue Technologie soll mit einer entsprechenden Softwarelösung detektierte Risse im Material auch dreidimensional darstellen können, was durch  Vergleiche mit früheren Messungen sogar Aussagen über das Risswachstum zulässt und damit insgesamt zu einer objektiveren sowie genaueren Bewertung des Risikofaktors im Raffineriebetrieb führt.

Projekt im Forschungsportal ansehen

Automatische Erkennung arabischer Handschrift
Laufzeit: 01.01.2011 bis 31.12.2015

In dieser Arbeit werden Methoden zur automatischen, segmentierungsbasierten Erkennung arabischer Handschrift untersucht und weiterentwickelt. Da sich bisher noch kein zuverlässiger Segmentierungsalgorithmus für arabische Handschrift durchgesetzt hat, werden verschiedene Segmentierungsvarianten nacheinander abgearbeitet, um anschließend die plausibelste Variante zu wählen. Zusätzlich wird für jede Segmentierungsvariante das erkannte Wort mit einem Lexikon verglichen, was ebenfalls Rückschlüsse auf die Korrektheit der Segmentierung ermöglicht und es erlaubt einige Erkennungsfehler zu korrigieren. Es werden hierzu mögliche Vorgehensweisen für die explizite Segmentierung, Merkmalsextraktion und Klassifizierung verglichen und implementiert. Auch die gängigen Klassifikatoren werden auf ihre Eignung untersucht und neuronale Netze zur Bestimmung der Gewichte der einzelnen Merkmale implementiert. Dies kann auch durch genetische Algorithmen trainiert werden.

Projekt im Forschungsportal ansehen

3Dsensation Strategiephase
Laufzeit: 01.01.2014 bis 30.06.2015

Im Rahmen der der Strategiephase im BMBF-Förderprogramm "Zwanzig20 - Partnerschaft für Innovation" werden Arbeiten zur "Forschung - 3D-Informationsverarbeitung" und zur  "Bildung" durchgeführt. Dies umfasst die Ausarbeitung der Strategie und Analyse der notwendigen Technologien zur präzisen dreidimensionalen Repräsentation statischer und dynamischer Objekte, um entsprechend der Erfordernisse aus den Bedarfsfeldern derartige Technologien zu entwickeln. Dies mündet in der Ausarbeitung einer Roadmap für die zu erarbeitende 3DInformationsverarbeitung mit den Schwerpunkten Gesichts- und Köperpose sowie auch adaptive Modellierung des menschlichen Körpers.
Der weitere Schwerpunkt beinhaltet die Konzipierung z.B. eines transdisziplinären Masterstudiengangs und eines Graduiertenforschungskollegs sowie der Weiterentwicklung von Ausbildungsprogrammen im Bereich der beruflichen Bildung. Der Masterstudiengang wird Themen der Mensch-Maschine-Interaktion z.B. "Ambient Intelligence" oder "Interaktive Assistenzsysteme" zum Inhalt haben.

Projekt im Forschungsportal ansehen

Bildbasierte Emotionserkennung und -quantifizierung auf der Grundlage der Datenfusion
Laufzeit: 01.05.2012 bis 01.05.2015

Analog zur Mensch-Mensch-Kommunikation wird die Mensch-Maschine-Interaktion als Interaktion zweier Agenten betrachtet, die kooperativ ein Problem lösen, Wünsche und Ziele ihres Gegenübers erkennen, sich an sie anpassen sowie sich des Diskurskontextes und seiner Regeln bewusst sind. Der Versuch diese Aspekte von Interaktionen explizit zu erfassen und zu modulieren, sind die Aufgaben einer adaptiven Benutzungsschnittstelle. Dabei wird die Schnittstelle durch Wissen über den momentanen Status, das Ziel und den emotionalen Zustand des individuellen Benutzers dynamisch angepasst. Hierzu reicht die typische Verarbeitungskette von der Merkmalsfindung und -extraktion bis zur Emotionsklassifikation und -quantifizierung. Die Kombination von Bilddaten mit Sprachdaten zur Segmentierungserfassung zwecks Mimikerkennung im Mehrpersonenszenario ist hierbei ein viel versprechender neuartiger Ansatz, der nicht nur eine robuste Klassifikation von unterschiedlichsten Arten von statischen und dynamischen Gesichtsausdrücken, sondern auch die Echtzeit-Adaption der Benutzungsschnittstelle an die aktuellen Benutzeraktionen erlaubt.

Projekt im Forschungsportal ansehen

Radar-Tracking und Klassifizierung für Verbesserung der Sicherheit im Straßenverkehr
Laufzeit: 01.08.2011 bis 01.01.2015

Die Zielsetzung diese Projektes ist die Entwicklung eines innovativen Sicherheitssystems zur Verbesserung des Schutzes von den so genannten ungeschützen Verkehrsteilnehmern (Fußgänger, Radfahrer). Erreicht werden soll dies in erster Linie über den Einsatz eines neu entworfenen 24 GHz Radarsensors, der neue Maßstäbe in puncto- Situationsanalyse aufbietet und gleichzeitig die bisherigen Fahrerassistenzfunktionen abdeckt. Das System wird für Untersuchungs- und Testzwecke auf zwei Versuchsträgern integriert. Diese besitzen zusätzlich Aktoren zur automatischen Kontrolle der Fahrzeugdynamik, um entsprechende Manöver zur Unfallvermeidung auszuführen (z.B. automatisches Bremsen und Ausweichen). Bevor die ersten Tests stattfinden können, erfolgt jedoch eine gezielte Unfallanalyse und die Erarbeitung adäquater Algorithmen zur Umgebungs- und Fußgängererkennung. In Betracht gezogen wird ebenfalls die Erweiterung des System mit anderer Sensorik (Kamera, LIDAR), um mittels Verfahren der Datenfusion die Ergebnisse zu verbessern bzw. zu überprüfen.

Projekt im Forschungsportal ansehen

Companion-Technologie in automotiven Anwendungsszenarien zur Werkerassistenz mittels mobiler Augmented Reality
Laufzeit: 01.05.2012 bis 31.12.2014

In diesem interdisziplinären Verbundprojekt zwischen Informationstechnik (IESK), Allgemeiner Psychologie (Uulm) und Anwender  (VW und IFF) besteht das Ziel in der Entwicklung und Erprobung von Verfahren zur möglichst natürlichen Interaktion mit Hilfe nicht-intrusiver Handgesten und der damit verbundenen Interaktionserkennung. Die Gestenerfassung erfolgt unter Einbeziehung des Körper- und Umgebungskontextes, ihre Klassifikation durch Fusion von statischen und dynamischen Gesten, die Erkennung von Gestiksequenzen mittels bildbasierter Verfahren. Dafür soll ein robustes prototypisches Sys-tem auf Grundlage der erzielten Ergebnisse im Rahmen des Teilprojektes C1 des SFB/TR 62 im Kontext der geplanten Anwendungsdomänen entwickelt, modifiziert und validiert werden. Die Auswahl der Gesten, Geräte und weiterer Implementationsentscheidungen basiert u.a. auf psychologischen Erkenntnissen und wird mittels experimenteller Untersuchungen abgesichert; die Erprobung findet über Nutzerstudien statt. Das Anwendungsszenario wird zunächst prototypisch als Demonstrator am Fraunhofer IFF aufgebaut, damit notwendige Detailentscheidungen zur Im-plementierung auf Basis einer quasi-realistischen Arbeitsumgebung getroffen werden können.

Projekt im Forschungsportal ansehen

Weiterentwicklung und systematische Validierung eines Systems zur automatisierten Schmerzerkennung auf der Grundlage von mimischen und psychobiologischen Parametern
Laufzeit: 01.07.2011 bis 30.11.2014

Die objektive Erfassung subjektiv multidimensional erlebter Schmerzen ist ein bislang unzureichend gelöstes Problem. Insbesondere in der klinischen Schmerzmessung sind verbale Verfahren (Schmerzskalen, Fragebögen) und visuelle Analogskalen üblich, die allerdings bei mental beeinträchtigten Personen wenig reliabel und valide sind. Expressive Schmerzäußerungen und/oder psychobiolgische Parameter können eine Lösung bieten. Es existieren solche Kodierungssysteme, die jedoch mit einem sehr hohen Aufwand verbunden sind oder nicht ausreichend testtheoretisch evaluiert wurden. Aufbauend auf den bisherigen Erfahrungen soll ein System zur automatischen Schmerzerkennung aus visuellen und biomedizinischen Daten weiterentwickelt, die testtheoretische Qualität ermittelt und seine Leistungsfähigkeit optimiert werden. Hierfür werden Probanden unter kontrollierten Bedingungen schmerzhaften Reizen ausgesetzt und mimische und psychobiologische Parameter zur Messung eingesetzt. Zur Gewinnung der Mimikparameter sollen verschiedene Methoden der Bildverarbeitung und Mustererkennung zur Gesichtsanalyse angewendet und weiterentwickelt werden. Auf Basis der statischen und dynamischen Gesichtsmerkmale aus zeitlichen Bildfolgen sowie psychobiologischen Daten sollen schmerzrelevante Merkmale identifiziert und ein automatisches System entwickelt werden, mit dem Schmerzen qualitativ und quantitativ gemessen werden können.

Projekt im Forschungsportal ansehen

Automatisierte Tankdachprüfung
Laufzeit: 01.10.2012 bis 01.04.2014

Hauptziel des geplanten Vorhabens ist es, ein neues autonom arbeitendes Messsystem zu entwickeln, um Tankdächer auf Raffinerien oder chemischen Anlagen mit dem Anspruch einer 100% Kontrolle auf Korrosionsabtrag zu prüfen.
Wesentlich ist die Entwicklung einer Technologie, die den Einsatz eines speziellen Roboters für eine flächendeckende Tankdachdankprüfung mit Korrosionsabtragsmessung ermöglicht. Der Roboter soll sich autonom auf dem Tankdach bewegen können und damit einen menschlichen Prüfer zur Verringerung des vorhandenen Gefahrenpotentials ersetzen. Der Roboter wird dazu mit verschiedenen Sensoren ausgestattet. Ein Ultraschallmesssystem wird an der aktuellen Position jeweils die Wanddicke des Daches messen. Ein optisches System und auf dem Dach platzierte Landmarken sollen dem Roboter ermöglichen, seine Position selbst zu bestimmen, wobei er während des Abfahrens eine virtuelle Karte mit den Wanddicken generiert. Zusätzliche Sensoren können wie bei modernen PKWs für eine Kollisionserkennung verwendet werden.

Projekt im Forschungsportal ansehen

Umgebungserkennung /Environment Perception
Laufzeit: 01.01.2009 bis 31.12.2012

Teilprojektziele sind die Umgebungserkennung, dynamische Umgebungsmodellierung und Basisklassifikation von Gesten potentieller Nutzer des Companion-Systems. Zur Umgebungserfassung werden Methoden zur Multi-Sensorfusion, Informationsfusion und zeitlichen Filterung basierend auf der Finite Sets Theorie erforscht und weiterentwickelt, die eine gleichzeitige Schätzung der Objektexistenz und des Objektzustandes erlauben. Die nicht-intrusive Erkennung von Nutzergesten erfolgt bildbasiert unter Nutzung von Hidden-Markov-Modellen.

Projekt im Forschungsportal ansehen

Intentionsbasierte Interpretation von Gestensequenzen
Laufzeit: 01.07.2009 bis 31.12.2011

Die automatische Erkennung der Gestik des Nutzers hat in der Mensch-Computer-Interaktion bei der Realisierung von Interaktionsaufgaben einen wachsenden Stellenwert. Zusammen mit einem adaptiven Plan und den aktuellen Aktionen des Benutzers, kann eine Bestimmung der Intentionen des Benutzers bezüglich seiner weiteren Bedienschritte/Interaktion ermöglicht werden.
Im Rahmen dieses Forschungsprojektes werden die Kopfregion, Gesichtsregion, Hände und Arme des Nutzers stereophotogrammetrisch erfasst, um daraus mittels bildbasierter Verfahren Bewegungen, Gestiken und Kopfhaltungen zu erkennen. Vorteil dabei ist, dass der Anwender nicht mit umständlichen Eingabegeräten hantieren muss, sondern durch die Bewegung seines Körpers intuitiv mit der Maschine interagiert. Verstärkt sollen dabei zweihändige Gesten untersucht und die damit verbundenen gestenbasierten Interaktionstechniken erweitert werden. Zur Erzeugung dieser Interaktionstechniken kann hier auf einfache dynamische und statische Gesten für die Interaktionsaufgaben in Verbindung mit einem adaptiven Plan zurückgegriffen werden. Als Erprobungsdomäne können u.a. Szenarien aus dem Bereich der Gebärdensprache oder von Stadtbesichtigungen dienen.

Projekt im Forschungsportal ansehen

Pilotstudie zur Entwicklung eines Systems zur automatisierten Schmerzerkennung in der postoperativen Phase
Laufzeit: 01.01.2008 bis 31.12.2008

Aufgabe des Projektes ist es, die kameragestützte automatische Analyse von schmerzbedingten Veränderungen des Antlitzes auf ihre Praktikabilität zu untersuchen. Schmerz ist ein regelmäßig im postoperativen Verlauf auftretendes Ereignis, dass durch personalaufwendige Untersuchungsmethoden oft unzureichend oder verspätet erkannt wird und eine ausgeprägte faciale Reflektion aufweist. Dafür bietet die Bildverarbeitung leistungsfähige Algorithmen zur Gesichtserfassung, Merkmalsextrahierung wie auch Mimikanalyse. Im Projekt sollen diese Algorithmen in einem ersten Schritt an Probanden untersucht und in Hinsicht auf Erkennung und Quantifizierung von Schmerzen weiterentwickelt werden. Es erfolgt die Bildaufnahme und Mustererkennung vorerst in farbigen Raum-Zeit-Bildern vom menschlichen Gesicht unter Schmerzen. Dabei werden die Probanden einem definierten Schmerzreiz ausgesetzt und die Schmerzintensität mit klinischen Methoden gemessen. Es werden geeignete Gesichtsmerkmale zur Bewertung der individuellen Schmerzintensität durch die Einbeziehung von Medizinern und beim Training des Systems parallel erfasste biomedizinische Daten festgelegt. Basierend auf der Merkmalsauswahl erfolgt die Klassifikation auf der Grundlage der Merkmalsänderungen, die durch Muskelaktivität hervorgerufen werden.

Projekt im Forschungsportal ansehen

2024

Exploring facial cues - automated deception detection using artificial intelligence

Dinges, Laslo; Fiedler, Marc-André; Hamadi, Ayoub; Hempel, Thorsten; Abdelrahman, Ahmed; Weimann, Joachim; Bershadskyy, Dmitri; Steiner, Johann

In: Neural computing & applications - London : Springer, Bd. 36 (2024), Heft 24, S. 14857-14883

2023

Uncovering lies - deception detection in a rolling-dice experiment

Dinges, Laslo; Fiedler, Marc-André; Al-Hamadi, Ayoub; Abdelrahman, Ahmed A.; Weimann, Joachim; Bershadskyy, Dmitri

In: Image Analysis and Processing – ICIAP 2023 , 1st ed. 2023. - Cham : Springer Nature Switzerland ; Foresti, Gian Luca, S. 293-303 - ( Lecture notes in computer science; volume 14233)

Classification networks for continuous automatic pain intensity monitoring in video using facial expression on the X-ITE Pain Database

Othman, Ehsan; Werner, Philipp; Saxen, Frerk; Al-Hamadi, Ayoub; Gruss, Sascha; Walter, Steffen

In: Journal of visual communication and image representation - Orlando, Fla. : Academic Press, Bd. 91 (2023), Artikel 103743

Hybrid bag-of-visual-words and FeatureWiz selection for content-based visual information retrieval

Bakheet, Samy; Al-Hamadi, Ayoub; Soliman, Emadeldeen; Heshmat, Mohamed

In: Sensors - Basel : MDPI, Bd. 23 (2023), Heft 3, Artikel 1653, insges. 24 S.

Digital technology and mental health during the COVID-19 pandemic - a narrative review with a focus on depression, anxiety, stress, and trauma

Guest, Paul C.; Vasilevska, Veronika; Hamadi, Ayoub; Eder, Julia; Falkai, Peter; Steiner, Johann

In: Frontiers in psychiatry - Lausanne : Frontiers Research Foundation, Bd. 14 (2023), Artikel 1227426, insges. 13 S.

An automatic and multi-modal system for continuous pain intensity monitoring based on analyzing data from five sensor modalities

Othman, Ehsan; Hamadi, Ayoub; Wendemuth, Andreas

In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Elektrotechnik und Informationstechik 2023, 1 Online-Ressource (xxi, 155 Seiten, 7,42 MB) [Literaturverzeichnis: Seite 137-155]

Kamerabasierte Messung von Vitalparametern mit verbesserter Störsicherheit

Rapczyński, Michał; Hamadi, Ayoub

In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Elektrotechnik und Informationstechnik 2023, 1 Online-Ressource (xxiv, 174 Seiten, 14,06 MB) [Literaturverzeichnis: Seite 159-173]

Experimental economics for machine learning - a methodological contribution

Bershadskyy, Dmitri; Dinges, Laslo; Fiedler, Marc-André; Hamadi, Ayoub; Ostermaier, Nina; Weimann, Joachim

In: Magdeburg: Otto-von-Guericke-Universität Magdeburg: Fakultät für Wirtschaftswissenschaft, 2023, 1 Online-Ressource (27 Seiten, 0,68 MB) - (Working paper series; Otto von Guericke Universität Magdeburg, Faculty of Economics and Management; 2023, no. 08)

Automated deception detection from videos - using end-to-end learning based high-level features and classivication approaches

Dinges, Laslo; Al-Hamadi, Ayoub; Hempel, Thorsten; Abdelrahman, Ahmed; Weimann, Joachim; Bershadskyy, Dmitri

In: De.arxiv.org - [Erscheinungsort nicht ermittelbar] : Arxiv.org . - 2023, Artikel 2307.06625, insges. 29 S.

2022

Fast and precise binary instance segmentation of 2D objects for automotive applications

Ganganna Ravindra, Darshan; Dinges, Laslo; Al-Hamadi, Ayoub; Baranau, Vasili

In: Journal of WSCG - Plzen, Bd. 30 (2022), 1-2, S. 302-305

A fingerprint-based verification framework using Harris and SURF feature detection algorithms

Bakheet, Samy; Al-Hamadi, Ayoub; Youssef, Rehab

In: Applied Sciences - Basel: MDPI, Bd. 12 (2022), 1, insges. 16 S.

Robot System Assistant (RoSA) - towards intuitive multi-modal and multi-device human-robot interaction

Strazdas, Dominykas; Hintz, Jan; Khalifa, Aly; Abdelrahman, Ahmed A.; Hempel, Thorsten; Hamadi, Ayoub

In: Sensors - Basel: MDPI, Bd. 22 (2022), Heft 3, Artikel 923, insges. 24 S.

Automatisierte bild- und videobasierte Mimikanalyse für die Messung von Schmerzen und Facial Action Units

Werner, Philipp; Hamadi, Ayoub; Tönnies, Klaus

In: Magdeburg: Universitätsbibliothek, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Elektrotechnik und Informationstechnik 2022, 1 Online-Ressource (xvi, 179 Seiten, 10,89 MB) [Literaturverzeichnis: Seite 159-178][Literaturverzeichnis: Seite 159-178]

2021

Robot System Assistant (RoSA) - concept for an intuitive multi-modal and multi-device interaction system

Strazdas, Dominykas; Hintz, Jan; Khalifa, Aly; Al-Hamadi, Ayoub

In: Proceedings of the 2021 IEEE International Conference on Human-Machine Systems (ICHMS) , 2021 - [Piscataway, NJ] : IEEE ; Nürnberger, Andreas, insges. 4 S.

Semantic-aware environment perception for mobile human-robot interaction

Hempel, Thorsten; Fiedler, Marc-André; Khalifa, Aly; Al-Hamadi, Ayoub; Dinges, Laslo

In: IEEE Xplore digital library / Institute of Electrical and Electronics Engineers - New York, NY : IEEE . - 2021, S. 200-203

Using facial action recognition to evaluate user perception in aggravated HRC scenarios

Dinges, Laslo; Hamadi, Ayoub; Hempel, Thorsten; Al Aghbari, Zaher

In: IEEE Xplore digital library / Institute of Electrical and Electronics Engineers - New York, NY : IEEE . - 2021, S. 195-199

Facial video-based respiratory rate recognition interpolating pulsatile PPG rise and fall times

Fiedler, Marc-André; Rapzyński, Michał; Hamadi, Ayoub

In: IEEE Xplore digital library / Institute of Electrical and Electronics Engineers - New York, NY : IEEE . - 2021, S. 545-549

Simultaneous prediction of valence/arousal and emotion categories and its application in an HRC scenario

Handrich, Sebastian; Dinges, Laslo; Hamadi, Ayoub; Werner, Philipp; Saxen, Frerk; Aghbari, Zaher

In: Journal of ambient intelligence and humanized computing - Berlin : Springer, Bd. 12 (2021), Heft 1, S. 57-73

Robo-HUD - interaction concept for contactless operation of industrial cobotic systems

Strazdas, Dominykas; Hintz, Jan; Hamadi, Ayoub

In: Applied Sciences - Basel : MDPI, Bd. 11 (2021), Heft 12, Artikel 5366, insges. 12 S.

Automatic vs. human recognition of pain intensity from facial expression on the X-ITE pain database

Othman, Ehsan; Werner, Philipp; Saxen, Frerk; Hamadi, Ayoub; Gruss, Sascha; Walter, Steffen

In: Sensors - Basel : MDPI, Bd. 21 (2021), Heft 9, Artikel 3273, insges. 19 S.

Robust hand gesture recognition using multiple shape-oriented visual cues

Bakheet, Samy; Hamadi, Ayoub

In: EURASIP journal on image and video processing / European Association for Speech, Signal and Image Processing - New York, NY : Hindawi Publishing Corp., Bd. 2021 (2021), Artikel 26, insges. 18 S.

SFPD - simultaneous face and person detection in real-time for human-robot interaction

Fiedler, Marc-André; Werner, Philipp; Khalifa, Aly; Hamadi, Ayoub

In: Sensors - Basel : MDPI, Bd. 21 (2021), Heft 17, Artikel 5918, insges. 17 S.

A framework for instantaneous driver drowsiness detection based on improved HOG features and Naive Bayesian classification

Bakheet, Samy; Hamadi, Ayoub

In: Brain Sciences - Basel : MDPI AG, Bd. 11 (2021), Heft 2, Artikel 240

2020

Deep facial expression recognition with occlusion regularization

Pandya, Nikul; Werner, Philipp; Hamadi, Ayoub

In: Advances in visual computing: 15th International Symposium on Visual Computing, ISVC 2020, San Diego, CA, USA, October 5-7, 2020 : proceedings / George Bebis [und 8 andere] (eds.): 15th International Symposium on Visual Computing, ISVC 2020, San Diego, CA, USA, October 5-7, 2020 : proceedings/ ISVC - Cham: Springer . - 2020, insges. 11 S.

SLAM-based multistate tracking system for mobile human-robot interaktion

Hempel, Thorsten; Al-Hamadi, Ayoub

In: Image analysis and recognition ; Part 1/ ICIAR - Cham: Springer; Campilho, Aurélio Part 1 . - 2020, S. 368-376

Facial cction unit recognition in the wild with multi-task CNN self-Ttaining for the EmotioNet Challenge,

Werner, Philipp; Saxen, Frerk; Hamadi, Ayoub

In: IEEE Xplore digital library / Institute of Electrical and Electronics Engineers - New York, NY : IEEE . - 2020, S. 1649-1652

Simultaneous prediction of valence/arousal and emotions on AffectNet, Aff-Wild and AFEW-VA

Handrich, Sebastian; Dinges, Laslo; Hamadi, Ayoub; Werner, Philipp; Al Aghbari, Zaher

In: Procedia computer science - Amsterdam [u.a.]: Elsevier, Bd. 170 (2020), S. 634-641

Finding K most significant motifs in big time series data

Al Aghbari, Zaher; Hamadi, Ayoub

In: Procedia computer science - Amsterdam [u.a.]: Elsevier, Bd. 170 (2020), S. 595-601

Multimodale Erkennung von Schmerzintensität und -modalität mit maschinellen Lernverfahren

Walter, Steffen; Al-Hamadi, Ayoub; Gruss, Sascha; Frisch, Stephan; Traue, Harald C.; Werner, Philipp

In: Der Schmerz: Organ der Deutschen Gesellschaft zum Studium des Schmerzes, der Österreichischen Schmerzgesellschaft und der Deutschen Interdisziplinären Vereinigung für Schmerztherapie - Berlin: Springer, Bd. 34 (2020), 5, S. 400-409

Fusion-based approach for respiratory rate recognition from facial video images

Fiedler, Marc-André; Rapczyński, Michal; Al-Hamadi, Ayoub

In: IEEE access/ Institute of Electrical and Electronics Engineers - New York, NY: IEEE, Bd. 8 (2020), S. 130036-130047

Robots and wizards - an investigation into natural HumanRobot Interaction

Strazdas, Dominykas; Hintz, Jan; Felßberg, Anna-Maria; Al-Hamadi, Ayoub

In: IEEE access / Institute of Electrical and Electronics Engineers - New York, NY : IEEE, Bd. 8 (2020), S. 207635-207642

Pixel-wise motion segmentation for SLAM in dynamic environments

Hempel, Thorsten; Hamadi, Ayoub

In: IEEE access/ Institute of Electrical and Electronics Engineers - New York, NY: IEEE, Bd. 8 (2020), S. 164521-164528

Chord-length shape features for license plate character recognition

Bakheet, Samy; Al-Hamadi, Ayoub

In: Journal of Russian laser research - New York, NY [u.a.]: Consultants Bureau, Bd. 41 (2020), 1, S. 156-170

Von der Fremdbeurteilung des Schmerzes zur automatisierten multimodalen Messung der Schmerzintensität - narrativer Review zum Stand der Forschung und zur klinischen Perspektive

Frisch, Stephan; Werner, Philipp; Al-Hamadi, Ayoub; Traue, Harald C.; Gruss, Sascha; Walter, Steffen

In: Der Schmerz: Organ der Deutschen Gesellschaft zum Studium des Schmerzes, der Österreichischen Schmerzgesellschaft und der Deutschen Interdisziplinären Vereinigung für Schmerztherapie - Berlin: Springer, Bd. 34 (2020), 5, S. 376-387

2019

Multimodale Schmerzerkennung mittels Algorithmen der künstlichen Intelligenz

Frisch, Stephan; Werner, Philipp; Al-Hamadi, Ayoub; Gruss, Sascha; Walter, Steffen

In: Der Schmerz - Berlin: Springer, Volume 33 (2019), Suppl. 1, Poster P04.05, Seite S49

Cross-database evaluation of pain recognition from facial video

Al-Hamadi, Ayoub; Othman, Ehsan; Werner, Philipp; Saxen, Frerk; Walter, Steffen

In: ISPA 2019 - Piscataway, NJ: IEEE; International Symposium on Image and Signal Processing and Analysis (11.:2019), S. 181-186[Konferenz: ISPA 2019, Dubrovnik, Croatia, September 23-25, 2019]

Twofold-multimodal pain recognition with the X-ITE pain database

Werner, Philipp; Al-Hamadi, Ayoub; Gruss, Sascha; Walter, Steffen

In: IEEE Xplore digital library / Institute of Electrical and Electronics Engineers - New York, NY : IEEE . - 2019, S. 290-296

Verhinderung der Überwindung von Gesichtserkennung durch kamerabasierte Vitalparameterschätzung

Rapczynski, Michal; Lang, Christopher; Al-Hamadi, Ayoub

In: Berlin: Gesellschaft z. Förderung angewandter Informatik, insges. 10 S., 2019[Tagung: FWS19, Berlin, 02. Oktober 2019]

Generalizing to unseen head poses in facial expression recognition and action unit intensity estimation

Werner, Philipp; Saxen, Frerk; Al-Hamadi, Ayoub; Yu, Hui

In: 14th IEEE International Conference on Automatic Face and Gesture Recognition - Piscataway, NJ: IEEE, insges. 8 S., 2019[Konferenz: FG 2019, Lille, France, 14-18 May, 2019]

Simultaneous prediction of valence/arousal and emotion categories in real-time

Handrich, Sebastian; Dinges, Laslo; Saxen, Frerk; Hamadi, Ayoub; Wachmuth, Sven

In: Proceedings of the 2019 IEEE International Conference on Signal and Image Processing Applications (IEEE ICSIPA 2019): Kuala Lumpur, Malaysia, September 17-19, 2019 / ICSIPA ; IEEE Signal Processing Society, Malaysia Chapter: Kuala Lumpur, Malaysia, September 17-19, 2019/ IEEE ICSIPA - [Piscataway, NJ]: IEEE, 2019; IEEE ICSIPA (6.:2019) . - 2019, insges. 1 S.[Konferenz: IEEE ICSIPA 2019, Malaysia, September 17-19, 2019]

Improvement of data-driven 3-D surface quality inspection by deformation simulation

von Enzberg, Sebastian; Al-Hamadi, Ayoub

In: [Piscataway, NJ]: IEEE; IEEE ICSIPA (6.:2019), insges. 1 S.[Konferenz: IEEE ICSIPA 2019, Malaysia, September 17-19, 2019]

Face attribute detection with MobileNetV2 and NasNet-Mobile

Saxen, Frerk; Werner, Philipp; Othman, Ehsan; Handrich, Sebastian; Dinges, Laslo; Hamadi, Ayoub

In: ISPA 2019: 11th International Symposium on Image and Signal Processing and Analysis, Dubrovnik, Croatia, September 23-25, 2019/ International Symposium on Image and Signal Processing and Analysis - Piscataway, NJ: IEEE, 2019; Lončarić, Sven . - 2019, S. 176-180[Konferenz: ISPA 2019, Dubrovnik, Croatia, September 23-25, 2019]

Effects of video encoding on camera based heart rate estimation

Rapczynski, Michal; Werner, Philipp; Al-Hamadi, Ayoub

In: IEEE transactions on biomedical engineering: a publication of the IEEE Engineering in Medicine and Biology Society/ Institute of Electrical and Electronics Engineers - New York, NY: IEEE, 1964, Bd. 66.2019, 12, S. 3360-3370

Predicting group contribution behaviour in a public goods game from face-to-face communication

Othman, Ehsan; Saxen, Frerk; Bershadskyy, Dmitri; Werner, Philipp; Al-Hamadi, Ayoub; Weimann, Joachim

In: Sensors - Basel : MDPI - Volume 19 (2019), 12, Artikelnummer 2786

Automatic recognition methods supporting pain assessment$aa survey

Werner, Philipp; Lopez-Martinez, Daniel; Walter, Steffen; Al-Hamadi, Ayoub; Gruss, Sascha; Picard, Rosalind W.

In: IEEE transactions on affective computing - New York, NY: IEEE, S. 1-1, 2019[Early Access]

Multi-modal signals for analyzing pain responses to thermal and electrical stimuli

Gruss, Sascha; Geiger, Mattis; Werner, Philipp; Wilhelm, Oliver; Traue, Harald C.; Al-Hamadi, Ayoub; Walter, Steffen

In: JoVE - [S.l.], 2019, 146, Art.-Nr. e59057, insgesamt 12 Seiten

2018

Automatic recognition of common Arabic handwritten words based on OCR and N-GRAMS

Dinges, Laslo; Hamadi, Ayoub; Elzobi, Moftah; Nürnberger, Andreas

In: IEEE Xplore digital library / Institute of Electrical and Electronics Engineers - New York, NY : IEEE . - 2018, S. 3625-3629 [Konferenz: 2017 IEEE International Conference on Image Processing (ICIP), Beijing, China]

Towards a novel reidentification method using metaheuristics

Ljouad, Tarik; Amine, Aouatif; Al-Hamadi, Ayoub; Rziza, Mohammed

In: Recent Developments in Metaheuristics - Cham: Springer, S. 429-445, 2018 - (Operations Research; Computer Science Interfaces Series; 62)

Intention-based anticipatory interactive systems

Wendemuth, Andreas; Böck, Ronald; Nürnberger, Andreas; Hamadi, Ayoub; Brechmann, André; Ohl, Frank W.

In: SMC 2018: 2018 IEEE International Conference on Systems, Man, and Cybernetics$d7-10 October 2018, Miyazaki, Japan : proceedings/ IEEE International Conference on Systems, Man, and Cybernetics - Piscataway, NJ: IEEE, 2018; Hata, Yutaka . - 2018, S. 2579-2584[Konferenz: 2018 IEEE International Conference on Systems, Man, and Cybernetics, SMC, Miyazaki, Japan, 7-10 October 2018]

Landmark based head pose estimation benchmark and method

Werner, Philipp; Saxen, Frerk; Al-Hamadi, Ayoub

In: 2017 IEEE International Conference on Image Processing: proceedings : 17-20 September 2017, China National Convention Center, Beijing, China - Piscataway, NJ: IEEE, S. 3909-3913, 2018[Konferenz: IEEE International Conference on Image Processing, ICIP 2017, Beijing, China, 17 - 20 September 2017]

On analogical comparison of ant colony's selectivity decision for migration to an optimal nest site versus reconstruction problem solution by a mouse inside figure 8 maze

Mustafa, Hassan M. H.; Tourkia, Fadhel B.; Al-Hamadi, Ayoub

In: 1st International Conference on Computer Applications & Information Security: ICCAIS' 2018, Riyadh, Kingdom of Saudi Arabia, 04-06 April 2018 - [Piscataway, NJ]: IEEE[Konferenz: 1st International Conference on Computer Applications & Information Security (ICCAIS), Riyadh, Saudi Arabia, 4-6 April 2018]

Analysis of facial expressiveness during experimentally induced heat pain

Werner, Philipp; Al-Hamadi, Ayoub; Walter, Steffen

In: 2017 Seventh International Conference on Affective Computing and Intelligent Interaction Workshops and Demos (ACIIW): 23-26 Oct. 2017 - [Piscataway, NJ]: IEEE, S. 176-180, 2018[Copyright: 2017; Konferenz: Seventh International Conference on Affective Computing and Intelligent Interaction Workshops and Demos, ACIIW, San Antonio, Tex., 23 - 26 October 2017]

Facial action unit intensity estimation and feature relevance visualization with random regression forests

Werner, Philipp; Handrich, Sebastian; Al-Hamadi, Ayoub

In: 2017 Seventh International Conference on Affective Computing and Intelligent Interaction (ACII): 23-26 Oct. 2017 - [Piscataway, NJ]: IEEE, S. 401-406, 2018[Copyright: 2017; Konferenz: 7. International Conference on Affective Computing and Intelligent Interaction, ACII, San Antonio, Tex., 23 - 26 October 2017]

Real vs. fake emotion challenge - learning to rank authenticity from facial activity descriptors

Saxen, Frerk; Werner, Philipp; Al-Hamadi, Ayoub

In: 2017 IEEE International Conference on Computer Vision workshops: 22-29 October 2017, Venice, Italy : proceedings - Piscataway, NJ: IEEE, S. 3073-3078, 2018[Konferenz: 2017 IEEE International Conference on Computer Vision workshops, Venice, Italy, 22-29 October 2017]

Localizing body joints from single depth images using geodetic distances and random tree walk

Handrich, Sebastian; Al-Hamadi, Ayoub

In: 2017 IEEE International Conference on Image Processing: proceedings : 17-20 September 2017, China National Convention Center, Beijing, China - Piscataway, NJ: IEEE, S. 146-150, 2018[Konferenz: IEEE International Conference on Image Processing, ICIP 2017, Beijing, China, 17 - 20 September 2017]

Automatic arabic Document classification based on the HRWiTD algorithm

Othman, Ehsan; Al-Hamadi, Ayoub

In: Journal of software engineering and applications: JSEA - Irvine, Calif: Scientific Research Publ, Bd. 11.2018, 4, S. 167-179

Facial point localization via neural networks in a cascade regression framework

Saeed, Anwar; Al-Hamadi, Ayoub; Neumann, Heiko

In: Multimedia tools and applications: an international journal - Dordrecht [u.a.]: Springer Science + Business Media B.V, Bd. 77.2018, 2, S. 2261-2283

Head movements and postures as pain behavior

Werner, Philipp; Al-Hamadi, Ayoub; Limbrecht-Ecklundt, Kerstin; Walter, Steffen; Traue, Harald C.

In: PLOS ONE - San Francisco, California, US : PLOS - Vol. 13.2018, 2, Art. e0192767, insgesamt 17 S.

Generative vs. Discriminative recognition models for off-line arabic handwriting

Elzobi, Moftah; Al-Hamadi, Ayoub

In: Sensors - Basel: MDPI, Vol. 18.2018, 9, Art. 2786, insgesamt 23 S.

Vision-based human activity recognition using LDCRFs

Elmezain, Mahmoud; Al-Hamadi, Ayoub

In: International Arab journal of e-technology: IAJet - Amman: Arab Open University, Bd. 15.2018, 3, S. 389-395

Aktives Zeilenkamerasystem zur schnellen und präzisen Rekonstruktion dreidimensionaler Oberflächen in der Produktion

Lilienblum, Erik; Al-Hamadi, Ayoub

In: Sensoren und Messsysteme: Beiträge der 19. ITG/GMA-Fachtagung 26.-27. Juni 2018 in Nürnberg - Berlin: VDE Verlag GmbH, S. 479-482

2017

Low cost calibration of stereo line scan camera systems

Lilienblum, Erik; Handrich, Sebastian; Al-Hamadi, Ayoub

In: Proceedings of the fifteenth IAPR International Conference on Machine Vision Applications : May 8-12, 2017, Toyoda Auditorium, Nagoya University, Nagoya, Japan - [Piscataway, NJ] : IEEE, S. 296-299 [Konferenz: 15. IAPR International Conference on Machine Vision Applications, MVA 2017, Nagoya, Japan, 8 - 12 May 2017]

Human bodypart classification using geodesic descriptors and random forests

Handrich, Sebastian; Al-Hamadi, Ayoub; Lilienblum, Erik; Liu, Zuofeng

In: Proceedings of the fifteenth IAPR International Conference on Machine Vision Applications: May 8-12, 2017, Toyoda Auditorium, Nagoya University, Nagoya, Japan - [Piscataway, NJ]: IEEE, S. 318-321[Konferenz: 15. IAPR International Conference on Machine Vision Applications, MVA 2017, Nagoya, Japan, 8 - 12 May 2017]

Continuous low latency heart rate estimation from painful faces in real time

Rapczynski, Michal; Werner, Philipp; Al-Hamadi, Ayoub

In: 2016 23rd International Conference on Pattern Recognition (ICPR): Cancún Center, Cancún, México, December 4-8, 2016 - [Piscataway, NJ]: IEEE, S. 1165-1170, 2017[Copyright: 2016; Konferenz: 23rd International Conference on Pattern Recognition, ICPR, Cancún, México, December 4-8, 2016]

Human bodypart classification using geodesic descriptors and random forests

Handrich, Sebastian; Al-Hamadi, Ayoub; Lilienblum, Erik; Liu, Zuofeng

In: IEEE Xplore digital library / Institute of Electrical and Electronics Engineers - New York, NY : IEEE . - 2017, S. 292-295

Automated analysis of head pose, facial expression and affect

Niese, Robert; Al-Hamadi, Ayoub; Neumann, Heiko

In: Companion technology - Cham : Springer ; Biundo-Stephan, Susanne *1955-* . - 2017, S. 365-386

Non-intrusive gesture recognition in real companion environments

Handrich, Sebastian; Rashid, Omer; Al-Hamadi, Ayoub

In: Companion technology - Cham : Springer ; Biundo-Stephan, Susanne *1955-* . - 2017, S. 321-343

Analysis of facial expressiveness during experimentally induced heat pain

Werner, Philipp; Al-Hamadi, Ayoub; Walter, Steffen

In: ResearchGATE : scientific neetwork : the leading professional network for scientists - Cambridge, Mass : ResearchGATE Corp, S. 176-180, 2017 [Konferenz: International Conference on Affective Computing and Intelligent Interaction Workshops and Demos (ACIIW 2017)]

Facial action unit intensity estimation and feature relevance visualization with random regression forests

Werner, Philipp; Handrich, Sebastian; Al-Hamadi, Ayoub

In: ResearchGATE : scientific neetwork : the leading professional network for scientists - Cambridge, Mass : ResearchGATE Corp, S. 401-406, 2017 [Konferenz: Conference: International Conference on Affective Computing and Intelligent Interaction (ACII) 2017]

Multi-modal information processing in companion-systems - a ticket purchase system

Siegert, Ingo; Schüssel, Felix; Schmidt, Miriam; Reuter, Stephan; Meudt, Sascha; Layher, Georg; Krell, Gerald; Hörnle, Thilo; Handrich, Sebastian; Al-Hamadi, Ayoub; Dietmayer, Klaus; Neumann, Heiko; Palm, Günther; Schwenker, Friedhelm; Wendemuth, Andreas

In: Companion technology - Cham : Springer ; Biundo-Stephan, Susanne *1955-* . - 2017, S. 493-500

Assessment of iterative closest point registration accuracy for different phantom surfaces captured by an optical 3-D sensor in radiotherapy

Krell, Gerald; Nezhad, Nazila Saeid; Walke, Mathias; Hamadi, Ayoub; Gademann, Günther

In: Computational and mathematical methods in medicine - New York, NY [u.a.]: Hindawi, 2006, 2017, Art. 2938504, insgesamt 14 S.

Investigation of an augmented reality-based machine operator assistance-system

Saxen, Frerk; Köpsel, Anne; Adler, Simon; Mecke, Rüdiger; Al-Hamadi, Ayoub; Tümler, Johannes; Huckauf, Anke

In: Companion technology - Cham : Springer , 2017 ; Biundo-Stephan, Susanne *1955-*, S. 471-483

Recognition of human actions based on temporal motion templates

Bakheet, Samy; Al-Hamadi, Ayoub; Mofaddel, M. A.

In: British Journal of Applied Science & Technology : BJAST - London [u.a.] : Sciencedomain International, Vol. 20.2017,5, Article no. BJAST. 28318, insgesamt 11 Seiten

Hand gesture recognition using optimized local Gabor features

Bakheet, Samy; Al-Hamadi, Ayoub

In: Journal of computational and theoretical nanoscience : for all theoretical and computational aspects in science, engineering, and biology - Stevenson Ranch, Calif. : American Scientific Publ., Bd. 14.2017, 3, S. 1380-1389 [DOI: 10.1166/jctn.2017.6460]

Aktive 3D-Zeilensensorsysteme mit vergrößertem Höhenmessbereich

Al-Hamadi, Ayoub; Lilienblum, Erik

In: 3D-NordOst 2017: Tagungsband : 20. Anwendungsbezogener Workshop zur Erfassung, Modellierung, Verarbeitung und Auswertung von 3D-Daten : Berlin, 07./08. Dezember 2017/ Workshop 3D-NordOst - Berlin, Germany: Gesellschaft zur Förderung Angewandter Informatik e.V. (GFaI), 2017 . - 2017, S. 33-42[Konferenz: 3D-NordOst 2017, 07./08. Dezember 2017, Berlin]

2016

Advancement in the head pose estimation via depzh-based face spotting

Saeed, Anwar; Al-Hamadi, Ayoub; Handrich, Sebastian

In: The 2016 IEEE Symposium Series on Computational Intelligence : December 6th - 9th, 2016, Athens, Greece - Piscataway, NJ : IEEE, insges. 6 S. [Kongress: 2016 IEEE Symposium Series on Computational Intelligence, Athens, Greece, 6-9 December, 2016]

"Bio Vid Emo DB" - a multimodal database for emotion analyses validated by subjective ratings

Zhang, Lin; Walter, Steffen; Ma, Xueyao; Werner, Philipp; Al-Hamadi, Ayoub; Traue, Harald C.; Gruss, Sascha

In: The 2016 IEEE Symposium Series on Computational Intelligence : December 6th - 9th, 2016, Athens, Greece - Piscataway, NJ : IEEE, insges. 6 S. [Kongress: 2016 IEEE Symposium Series on Computational Intelligence, Athens, Greece, 6-9 December, 2016]

A framework for joint facial expression recognition and point localization

Saeed, Anwar; Al-Hamadi, Ayoub

In: 2016 23rd International Conference on Pattern Recognition (ICPR) : Cancún, México, December 4-8, 2016 - IEEE, S. 4125-4130

Multispektrale Vermessung der Haut zur Verbesserung kontaktloser Herzratenschätzung

Rapczynski, Michal; Zhang, Chen; Rosenberger, Maik; Al-Hamadi, Ayoub

In: 22. Workshop Farbbildverarbeitung: 29.-30. September 2016, Ilmenau / Karl-Heinz Franke, Rico Nestler, Zentrum für Bild- und Signalverarbeitung e.V. (Hrsg.): 29.-30. September 2016, Ilmenau/ Workshop Farbbildverarbeitung - Ilmenau: Zentrum für Bild- und Signalverarbeitung, 2016 . - 2016, S. 115-122[Kongress: 22. Workshop Farbbildverarbeitung: 29.-30. September 2016, Ilmenau / Karl-Heinz Franke, Rico Nestler, Zentrum für Bild- und Signalverarbeitung e.V. (Hrsg.), Ilmenau, 29. - 30. Oktober, 2016]

Kontaktfreie kamerabasierte Messung der Herzrate in Echtzeit

Rapczynski, Michal; Werner, Philipp; Al-Hamadi, Ayoub

In: 3D SENSATION - transdisziplinäre Perspektiven: innteract conference - Chemnitz: Verlag aw&l Wissenschaft und Praxis, S. 137-147, 2016[Kongress: innteract conference 2016, Chemnitz, 23. - 24. Juni, 2016]

Der Einfluss von Hautfarbensegmentierung auf die kontaktfreie Schätzung von Vitalparametern

Rapczynski, Michal; Saxen, Frerk; Werner, Philipp; Al-Hamadi, Ayoub

In: 22. Workshop Farbbildverarbeitung: 29.-30. September 2016, Ilmenau - Ilmenau: Zentrum für Bild- und Signalverarbeitung, S. 75-83[Kongress: 22. Workshop Farbbildverarbeitung, Ilmenau, 29. - 30. Oktober, 2016]

Automatic pain assessment with facial activity descriptors

Werner, Philipp; Al-Hamadi, Ayoub; Limbrecht-Ecklundt, Kerstin; Walter, Steffen; Gruss, Sascha; Traue, Harald

In: IEEE transactions on affective computing / Institute of Electrical and Electronics Engineers - New York, NY : IEEE . - 2016, insges. 14 S.

A hybrid cascade approach for human skin segmentation

Bakheet, Samy; Al-Hamadi, Ayoub

In: British Journal of Mathematics & Computer Science - London [u.a.]: Sciencedomain International, Bd. 17.2016, 6, insges. 14 S.

A multiresolution approach to model-based 3-D surface quality inspection

Enzberg, Sebastian; Hamadi, Ayoub

In: IEEE transactions on industrial informatics - New York, NY: IEEE, 2005, Bd. 12.2016, 4, S. 1498-1507

Mimische Aktivität differenzierter Schmerzintensitäten - Korrelation der Merkmale von Facial Action Coding System und Elektromyographie

Limbrecht-Ecklundt, K.; Werner, Philipp; Traue, H. C.; Al-Hamadi, Ayoub; Walter, S.

In: Der Schmerz : Organ der Deutschen Gesellschaft zum Studium des Schmerzes, der Österreichischen Schmerzgesellschaft und der Deutschen Interdisziplinären Vereinigung für Schmerztherapie - Berlin : Springer, Bd. 30.2016, 3, S. 248-256

A discriminative framework for action recognition using f-HOL features

Bakheet, Samy; Al-Hamadi, Ayoub

In: Information - Basel : MDPI Publ, Bd. 7.2016, 4, S. 68

2015

Utilizing the bezier descriptors for hand gesture recognition

Rashid, Omer; Al-Hamadi, Ayoub

In: 2015 IEEE International Conference on Image Processing, ICIP 2015, September 27-30, 2015, Québec City, Canada - Piscataway, NJ: IEEE, insges. 5 S.

Aktive 3D-Zeilensensorsysteme mit vergrößertem Höhenmessbereich

Lilienblum, Erik; Al-Hamadi, Ayoub

In: 3D-NordOst 2015: Tagungsband : 18. Anwendungsbezogener Workshop zur Erfassung, Modellierung, Verarbeitung und Auswertung von 3D-Daten : Teil des 3D-Veranstaltungs-Clusters Berlin : Berlin, 03./04. Dezember 2015 - Berlin: Gesellschaft zur Förderung angewandter Informatik e.V. (GFaI), insges. 10 S.[Konferenz: 3D-NordOst 2015]

Aktives Zeilensensorsystem zur kontinuierlichen 3D-Oberflächenrekonstruktion von Endlosmaterialien

Lilienblum, Erik; Al-Hamadi, Ayoub

In: 3D-NordOst 2015 : Tagungsband : 18. Anwendungsbezogener Workshop zur Erfassung, Modellierung, Verarbeitung und Auswertung von 3D-Daten : Teil des 3D-Veranstaltungs-Clusters Berlin : Berlin, 03./04. Dezember 2015. - Berlin : Gesellschaft zur Förderung angewandter Informatik e.V. (GFaI), insges. 12 S.Kongress: 3D-NordOst; 18 (Berlin) : 2015.12.03-04

Data fusion for automated pain recognition

Walter, Steffen; Gruss, Sascha; Kächele, Markus; Schwenker, Friedhelm; Werner, Philipp; Al-Hamadi, Ayoub; Andrade, Adriano; Moreira, Gustavo

In: PervasiveHealth : 9th International Conference on Pervasive Computing Technologies for Healthcare, Istanbul, Turkey, 20th - 23rd May 2015. - ICST, Institute for Computer Sciences, Social-Informatics and Telecommunications Engineering, S. 261-264

Boosted human head pose estimation using kinect camera

Saeed, Anwar; Al-Hamadi, Ayoub

In: 2015 IEEE International Conference on Image Processing, ICIP 2015, September 27-30, 2015, Québec City, Canada - Piscataway, NJ: IEEE, insges. 5 S.

Optical sensor tracking and 3D-reconstruction of hydrogen-induced cracking

Freye, Christian; Bendicks, Christian; Lilienblum, Erik; Al-Hamadi, Ayoub

In: Advanced Concepts for Intelligent Vision Systems - Cham : Springer . - 2015, S. 521-529 - (Lecture notes in computer science; 9386)

Full-body human pose estimation by combining geodesic distances and 3D-point cloud registration

Handrich, Sebastian; Al-Hamadi, Ayoub

In: Advanced Concepts for Intelligent Vision Systems - Cham : Springer . - 2015, S. 287-298 - (Lecture notes in computer science; 9386)

Quantitative analysis of surface reconstruction accuracy achievable with the TSDF representation

Werner, Diana; Werner, Philipp; Al-Hamadi, Ayoub

In: Computer Vision Systems - Cham [u.a.] : Springer ; Nalpantidis, Lazaros . - 2015, S. 167-176 - (Lecture notes in computer science; 9163)

Bio-visual fusion for person-independent recognition of pain intensity

Kächele, Markus; Werner, Philipp; Al-Hamadi, Ayoub; Palm, Günther; Walter, Steffen; Schwenker, Friedhelm

In: Multiple Classifier Systems - Cham [u.a.] : Springer ; Schwenker, Friedhelm . - 2015, S. 220-230 - (Lecture notes in computer science; 9132)

Head pose estimation on top of haar-like face detection - a study using the Kinect sensor

Saeed, Anwar; Al-Hamadi, Ayoub; Ghoneim, Ahmed

In: Sensors - Basel : MDPI, Bd. 15 (2015), Heft 9, S. 20945-20966

ASM based synthesis of handwritten arabic text pages

Dinges, Laslo; Hamadi, Ayoub; Elzobi, Moftah; El-etriby, Sherif; Ghoneim, Ahmed

In: The ScientificWorld journal - Boynton Beach, Fla., 2000, 2015, Article ID 323575, insgesamt 18 S.

A structured light approach for 3-D surface reconstruction with a stereo line-scan system

Lilienblum, Erik; Al-Hamadi, Ayoub

In: IEEE transactions on instrumentation and measurement: IM : a publication of the Instrumentation and Measurement Society - New York, NY: IEEE, Bd. 64.2015, 5, S. 1266 - 1274

Static and dynamic interpretations of hand specific body language cues for HCI

Ahmad, Omer Rashid; Al-Hamadi, Ayoub; Wendemuth, Andreas

In: Magdeburg, Dissertation Otto-von-Guericke-Universität Magdeburg, Fakultät für Elektrotechnik und Informationstechnik 2015, xxviii, 142 Seiten [Literaturverzeichnis: Seite [125]-142][Literaturverzeichnis: Seite [125]-142]

Regression-based head pose estimation in 2D images

Saeed, Anwar; Al-Hamadi, Ayoub; Niese, Robert

In: Proceedings of the 1st International Symposium on Companion-Technology (ISCT 2015): September 23rd - 25th, Ulm University, Germany, 2015; Biundo-Stephan, Susanne . - 2015, S. 161-166Kongress: International Symposium on Companion-Technology, ISCT 1 (Ulm : 2015.09.23-25)

2014

Truncated signed distance function - experiments on voxel size

Werner, Diana; Al-Hamadi, Ayoub; Werner, Philipp

In: Image Analysis and Recognition / Campilho , Aurélio - Cham [u.a.] : Springer ; Campilho, Aurélio . - 2014, S. 357 - 364 - (Lecture notes in computer science; 8815) Kongress: ICIAR 2014 11 Vilamoura, Portugal 2014.10.22-24

A defect recognition system for automated inspection of non-rigid surfaces

Enzberg, Sebastian; Hamadi, Ayoub

In: 22nd International Conference on Pattern Recognition: 24-28 August 2014, Stockholm, Sweden ; proceedings - Piscataway, NJ: IEEE, 2014 . - 2014, S. 1812-1816

Detection and tracking approach using an automotive radar to increase active pedestrian safety

Heuer, Michael; Al-Hamadi, Ayoub; Rain, Alexander; Meinecke, Marc-Michael

In: IEEE Intelligent Vehicles Symposium proceedings, 2014: 8 - 11 June 2014, Dearborn, Michigan, USA [postponed from] Ypsilanti MI, USA - Piscataway, NJ: IEEE, S. 890-893Kongress: IVS 25 (Dearborn, Mich. : 2014.06.08-11

Pedestrain tracking with occlusion Using a 24 GHz automotive radar

Heuer, Michael; Al-Hamadi, Ayoub; Rain, Alexander; Meinecke, Marc-Michael; Rohling, Hermann

In: 2014 15th International Radar Symposium (IRS 2014): Gdask, Poland, June 16 - 18, 2014/ eds. Anna Kurowska; ...: Gdańsk, Poland, June 16 - 18, 2014/ eds. Anna Kurowska; ... - Warsaw: Warsaw Univ. of Technology, 2014; Kurowska, Anna . - 2014, S. 73-76Kongress: IRS 15 (Gdańsk, Poland : 2014.06.16-18)

A structured light approach for 3d surface reconstruction with a stereo line-scan system

Lilienblum, Erik; Al-Hamadi, Ayoub

In: 2014 IEEE International Instrumentation and Measurement Technology Conference (I2MTC 2014) ; 2 - Piscataway, NJ: IEEE, 2014 . - 2014, S. 1171-1176Kongress: I2MTC (Montevideo : 2014.05.12-15)

Color-based skin segmentation - an evaluation of the state of the art

Saxen, Frerk; Al-Hamadi, Ayoub

In: 2014 IEEE International Conference on Image Processing, ICIP 2014, October 27-30, 2014, Paris, France - Piscataway, NJ: IEEE, S. 4467-4471Kongress: ICIP 2014 (Paris, France : 2014.10.27-30)[Beitrag auf CD-ROM]

Superpixels for skin segmentation

Saxen, Frerk; Al-Hamadi, Ayoub

In: 20. Workshop Farbbildverarbeitung: 25. - 26. September 2014, Wuppertal ; [Tagungsband] - Ilmenau, S. 153-159Kongress: Workshop Farbbildverarbeitung 20 (Wuppertal : 2014.09.25-26)

Automatic pain recognition from video and biomedical signals

Werner, Philipp; Walter, Steffen; Al-Hamadi, Ayoub; Gruss, Sascha; Niese, Robert; Traue, Harald C.

In: 22nd International Conference on Pattern Recognition - Piscataway, NJ : IEEE . - 2014, S. 4582-4587

Multiple camera approach for SLAM based ultrasonic tank roof inspection

Freye, Christian; Bendicks, Christian; Lilienblum, Erik; Al-Hamadi, Ayoub

In: Image Analysis and Recognition / Campilho , Aurélio - Cham [u.a.] : Springer ; Campilho, Aurélio . - 2014, S. 453-460 - (Lecture Notes in Computer Science; 8814) Kongress: ICIAR 2014 11 Vilamoura, Portugal 2014.10.22-24

Automatic heat rate estimation from painful faces

Werner, Philipp; Al-Hamadi, Ayoub; Walter, Steffen; Gruss, Sascha; Traue, Harald C.

In: 2014 IEEE International Conference on Image Processing, ICIP 2014, October 27-30, 2014, Paris, France - Piscataway, NJ: IEEE, S. 1947-1951Kongress: ICIP 2014 (Paris, France : 2014.10.27-30)[Beitrag auf CD-ROM]

Gabor wavelet recognition approach for off-line handwritten arabic using explicit segmentation

Elzobi, Moftah; Al-Hamadi, Ayoub; Al Aghbari, Zaher; Dings, Laslo; Saeed, Anwar

In: Image Processing and Communications Challenges 5 / S. Choras , Ryszard - Heidelberg : Springer International Publishing ; S. Choras, Ryszard . - 2014, S. 245-254

Multimodal automatic pain recognition via video signals and biopotentials

Walter, Steffen; Gruss, Sascha; Hazer, D.; Traue, Harald C.; Werner, Philipp; Al-Hamadi, Ayoub; Moreira da Silva, G.; Andrade, A. O.

In: Tecnologia, técnicas e tendências em engenharia biomédica - Bauru: Canal, S. 201-210, 2014

Simultaneous multi-camera calibration based on phase-shift measurements on planar surfaces

Rapczynski, Michal; Lilienblum, Erik; Enzberg, Sebastian; Hamadi, Ayoub

In: 2014 IEEE International Instrumentation and Measurement Technology Conference (I2MTC 2014) ; 1 - Piscataway, NJ: IEEE, 2014 . - 2014, S. 175-180Kongress: I2MTC (Montevideo : 2014.05.12-15)

Image-based methods for interaction with head-worn worker-assistance systems

Saxen, Frerk; Rashid, Omar; Al-Hamadi, Ayoub; Adler, Simon; Kernchen, Alexa; Mecke, Rüdiger

In: Journal of Intelligent Learning Systems and Applications: JILSA - Irvine, Calif: Scientific Research Publ, Bd. 6.2014, 3, S. 141-152

Application of neural networks' modeling on optimal analysis and evaluation of e-learning systems' performance (time response approach)

Abdul Hamid, Zedan M.; Al-Ghamdi, Saeed A.; Mustafa, Hassan M. H.; Al-Hamadi, Ayoub; Al-Bassiouni, Abdel Aziz M.

In: Elixir - [S.l.] : [s.n.], Bd. 70 (2014), S. 24063-24067

Automatic pain quantification using autonomic parameters

Walter, Steffen; Gruss, Sascha; Limbrecht-Ecklundt, Kerstin; Traue, Harald C.; Werner, Philipp; Al-Hamadi, Ayoub; Diniz, Nicolai; Moreira da Silva, Gustavo; Andrade, Adriano O.

In: Psychology & neuroscience - Rio de Janeiro : Departamento de Psicologia, Bd. 7 (2014), Heft 3, S. 363-380

Comparative learning applied to intensity rating of facial expressions of pain

Werner, Philipp; Al-Hamadi, Ayoub; Niese, Robert

In: International journal of pattern recognition and artificial intelligence: IJPRAI - Singapore [u.a.]: World Scientific Publ. Co, Vol. 28.2014, 5, Art. 1451008, insgesamt 26 S.

Frame-based facial expression recognition using geometrical features

Saeed, Anwar; Al-Hamadi, Ayoub; Niese, Robert; Elzobi, Moftah

In: Advances in human-computer interaction - New York, NY: Hindawi, 2014, Art. 408953, insgesamt 13 S.

Projection of the modified cuckoo search metaheuristic into the multiple pedestrain tracking problem

Ljouad, Tarik; Al-Hamadi, Ayoub; Amine, Aouatif; Rziza, Mohammed

In: International Conference on Metaheuristics and Nature Inspired Computing, META'14: October 27th-31th 2014, Marrakech, Morocco - Marrakech, insges. 2 S.Kongress: META'14 (Marrakech, Morocco : 2014.10.27-31)[Beitrag auf CD-ROM]

Wireless communication techniques for half-automated evaluation of automotive active pedestrain safety systems

Heuer, Michael; Al-Hamadi, Ayoub; Meinecke, Marc-Michael; Schneider, Eugen; Rohling, Hermann; Sorowka, Peter

In: CERGAL 2014: International Symposium on Certification of GNSS Systems & Services, Dresden, Germany 08 - 09 July 2014 ; proceedings - German Inst. of Navigation, 2014 . - 2014, insges. 9 S.Kongress: CERGAL (Dresden : 2014.07.08-09)

Active pedestrain safety and road surface estimation - an overview of the ARTRAC initiative

Häkli, Janne; Nummila, Kai; Meinecke, Marc-M.; Heuer, Michael; Al-Hamadi, Ayoub; Rohling, Herrmann; Sorowka, Peter

In: 10th ITS European Congress: Helsinki, Finland, 16 - 19 June 2014 - [Brussels]: ERTICO - ITS Europe, 2014, Paper Nr. TP 0111, insgesamt 9 S.Kongress: ITS European Congress 10 (Helsinki : 2014.06.16-19)

Synthetic-based validation of segmentation of handwritten arabic words

Dinges, Laslo; Hamadi, Ayoub; Elzobi, Moftah; El-Etriby, Sherif

In: Manuscript cultures: mc - Hamburg: Univ., SFB 950, 2008 . - 2014, 7, S. 10-18

2013

A coded 3d calibration method for line-scan cameras

Lilienblum, Erik; Hamadi, Ayoub; Michaelis, Bernd

In: Pattern Recognition / Weickert , Joachim - Berlin, Heidelberg : Springer ; Weickert, Joachim *1965-* . - 2013, S. 81-90 - (Lecture notes in computer science; 8142) Kongress: GCPR 35 Saarbrücken 2013.09.03-06

On optimality of teaching quality for a mathematical topic using Neural Networks (with a case study)

Al-Ghamdi, S. A.; Mustafa, H. M. H.; Al-Hamadi, Ayoub; Kortam, M. H.; Mal-Bassiouni, A.

In: IEEE Global Engineering Education Conference (EDUCON), 2013. - Piscataway, NJ : IEEE, S. 422-430Kongress: EDUCON; (Berlin) : 2013.03.13-15

A multi-agent mobile robot system with enviroment perception and HMI capabilities

Tornow, Michael; Al-Hamadi, Ayoub; Borrmann, Vinzenz

In: 2013 IEEE International Conference on Signal & Image Processing Applications (ICSIPA 2013). - Piscataway, NJ : IEEE, insges. 6 S.

The BioVid heat pain database

Walter, Steffen; Gruss, Sascha; Ehleiter, Hagen; Tan, Junwen; Traue, Harald C.; Crawcour, Stephen; Werner, Philipp; Al-Hamadi, Ayoub; Andrade, Adriano O.; Moreira da Silva, Gustavo

In: Proceedings of the 2013 IEEE International Conference on Cybernetics (CYBCONF 2013). - IEEE, S. 128-131Kongress: CYBCONF; (Lausanne, Switzerland) : 2013.06.13-15

Upper-body pose estimation using geodesic distances and skin-color

Handrich, Sebastian; Al-Hamadi, Ayoub

In: Advanced concepts for intelligent vision systems. - Cham [u.a.] : Springer, S. 150-161, 2013 - (Lecture notes in computer science; 8192)Kongress: ACIVS 2013; 15 (Poznań) : 2013.10.28-31

Automatic user-specific avatar parametrisation and emotion mapping

Behrens, Stephanie; Al-Hamadi, Ayoub; Niese, Robert; Redweik, Eicke

In: Advanced concepts for intelligent vision systems - Cham [u.a.]: Springer . - 2013, S. 192-202 - (Lecture notes in computer science; 8192)Kongress: ACIVS 2013 15 (Poznań : 2013.10.28-31)

A new approach for hand augmentation based on patch modelling

Ahmad, Omer Rashid; Al-Hamadi, Ayoub

In: Advanced concepts for intelligent vision systems. - Cham [u.a.] : Springer, S. 162-171, 2013 - (Lecture notes in computer science; 8192)Kongress: ACIVS 2013; 15 (Poznań) : 2013.10.28-31

Tracking of a handheld ultrasonic sensor for corrision control on pipe segment surfaces

Bendicks, Christian; Lilienblum, Erik; Freye, Christian; Al-Hamadi, Ayoub

In: Advanced concepts for intelligent vision systems - Cham [u.a.]: Springer . - 2013, S. 342-353 - (Lecture notes in computer science; 8192)Kongress: ACIVS 2013 15 (Poznań : 2013.10.28-31)

Accurate, fast and robust realtime face pose estimation using Kinect camera

Niese, Robert; Werner, Philipp; Al-Hamadi, Ayoub

In: IEEE SMC 2013. - Piscataway, NJ : IEEE, S. 487-490Kongress: SMC 2013; (Manchester, UK) : 2013.10.13-16

A robust method for human pose estimation based on geodesic distance feature

Handrich, Sebastian; Al-Hamadi, Ayoub

In: IEEE SMC 2013. - Piscataway, NJ : IEEE, S. 906-911Kongress: SMC 2013; (Manchester, UK) : 2013.10.13-16

Gestic-based human machine interface for robot control

Tornow, Michael; Al-Hamadi, Ayoub; Borrmann, Vinzenz

In: IEEE SMC 2013. - Piscataway, NJ : IEEE, S. 2706-2711Kongress: SMC 2013; (Manchester, UK) : 2013.10.13-16

Automatic realtime user performance-driven avatar animation

Behrens, Stephanie; Al-Hamadi, Ayoub; Redweik, Eicke; Niese, Robert

In: IEEE SMC 2013. - Piscataway, NJ : IEEE, S. 2694-2699Kongress: SMC 2013; (Manchester, UK) : 2013.10.13-16

The effectiveness of using geometrical features for facial expression recognition

Saeed, Anwar; Al-Hamadi, Ayoub; Niese, Robert

In: Proceedings of the 2013 IEEE International Conference on Cybernetics (CYBCONF 2013). - IEEE, S. 122-127Kongress: CYBCONF; (Lausanne, Switzerland) : 2013.06.13-15

An observation model for high resolution radar data in the context of an automotive pedestrian safety system

Heuer, Michael; Al-Hamadi, Ayoub; Meinecke, M.-M.

In: 14th International Radar Symposium (IRS), 2013. - Piscataway, NJ : IEEE, S. 714-719Kongress: IRS; 14 (Dresden) : 2013.06.19-21

Using speaker group dependent modelling to improve fusion of fragmentary classifier decisions

Siegert, Ingo; Glodek, Michael; Panning, Axel; Krell, Gerald; Schwenker, Friedhelm; Al-Hamadi, Ayoub; Wendemuth, Andreas

In: Proceedings of the 2013 IEEE International Conference on Cybernetics (CYBCONF 2013) : Lausanne, Switzerland, 13-15 June, 2013. - IEEE, S. 132-137Kongress: CYBCONF; (Lausanne, Switzerland) : 2013.06.13-15

An observation model for high resolution radar data in the context of an automotive pedestrian safety system

Heuer, Michael; Al-Hamadi, Ayoub; Meinecke, Marc-Michael

In: Proceedings // International Radar Symposium - IRS 2013 ; Vol. 1. - Göttingen : Cuvillier, insges. 6 S.Kongress: IRS; 14 (Dresden) : 2013.06.19-21

Affine-invariant feature extraction for activity recognition

Sadek, Samy; Hamadi, Ayoub; Krell, Gerald; Michaelis, Bernd

In: ISRN machine vision - New York, NY: International Scholarly Research Network, 2012, 2013, Article ID 215195, insgesamt 7 S.

Toward real-world activity recognition - an SVM based system using fuzzy directional features

Sadek, Samy; Hamadi, Ayoub; Michaelis, Bernd

In: WSEAS transactions on information science and applications/ World Scientific and Engineering Academy and Society - Athens: WSEAS, 2004, Bd. 10.2013, 4, S. 116-127

Performance and algorithmic analogy of behavioral learning phenomenon in neural network versus ant colony optimization systems

Mustafa, Hassan M. H.; Al-Hamadi, Ayoub; Al-Shenawy, Nada M.; Al-Ghamdi, Saeed A.; Al-Bassiouni, AbdelAziz M.

In: International journal of advanced research. - [S.l.], Bd. 1.2013, 6, S. 313-319

Reversible data hiding by integer wavelet transform with lossless EZW bit-stream

Ahmad, Mostafa A.; Meligy, Aly M.; Hashim, Amal H.; Al-Hamadi, Ayoub

In: International journal of computer applications. - [S.l.] : Foundation of Computer Science, Bd. 66.2013, 2, S. 8-15

Simulation of improved academic achievement for a mathematical topic using neural networks modeling

Al-Ghamdi, Saeed A.; Mustafa, Hassan M. H.; Al-Bassiouni, Abdel Aziz M.; Al-Hamadi, Ayoub

In: World of computer science and information technology journal. - [S.l.], Bd. 3.2013, 4, S. 77-84

On tutoring quality improvement of a mathematical topic using neural networks

Abdulhamid, Zedan M.; Mustafa, Hassan M. H.; Al-Hamadi, Ayoub

In: Elixir. - [S.l.], Bd. 57.2013, S. 14003-14008

Implicit sequence learning in recurrent neural networks

Glüge, Stefan; Wendemuth, Andreas; Al-Hamadi, Ayoub

In: Magdeburg, Univ., Fak. für Elektrotechnik und Informationstechnik, Diss., 2013, VIII, 132 S., graph. Darst.

Vision-based representation and recognition of human activities in image sequences

Bakheet, Samy Sadek Mohamed; Al-Hamadi, Ayoub

In: Magdeburg, Univ., Fak. für Elektrotechnik und Informationstechnik, Diss., 2013, XVIII, 197 S., graph. Darst.

A locale group based line segmentation approach for non uniform skewed and curved arabic handwritings

Dinges, Laslo; Hamadi, Ayoub; Elzobi, Moftah

In: 12th International Conference on Document Analysis and Recognition (ICDAR 2013): Washington, DC, August 25-28, 2013 - Piscataway, NJ: IEEE, 2013 . - 2013, S. 803-806Kongress: ICDAR 12 (Washington, DC : 2013.08.25-28)

An approach for arabic handwriting synthesis based on active shape models

Dinges, Laslo; Hamadi, Ayoub; Elzobi, Moftah

In: 12th International Conference on Document Analysis and Recognition (ICDAR 2013): Washington, DC, August 25-28, 2013 - Piscataway, NJ: IEEE, 2013 . - 2013, S. 1292-1296Kongress: ICDAR 12 (Washington, DC : 2013.08.25-28)

Towards pain monitoring - facial expression, head pose, a new database, an automatic system and remaining challenges

Werner, Philipp; Al-Hamadi, Ayoub; Niese, Robert; Walter, Steffen; Gruss, Sascha; Traue, Harald C.

In: Proceedings of the British Machine Vision Conference 2013. - BMVA, insges. 13 S.

A Hidden Markov model-based approach with an adaptive threshold model for off-line arabic handwriting recognition

Elzobi, Moftah; Al-Hamadi, Ayoub; Dings, Laslo; Elmezain, Mahmoud; Saeed, Anwar

In: 12th International Conference on Document Analysis and Recognition (ICDAR 2013). - Piscataway, NJ : IEEE, S. 945-949Kongress: ICDAR; 12 (Washington, DC) : 2013.08.25-28

2012

Sharpness improvement of warped document images for top view book scanners

Battrawy, Ramy; Schnitzlein, Markus; Nowack, Dietmar; Krell, Gerald; Al-Hamadi, Ayoub

In: The 8th International Conference on Signal-Image Technology & Internet-Based Systems. - Piscataway, NJ : IEEE, S. 818-824, 2012Kongress: SITIS 2012; 8 (Sorrento, Italy) : 2012.11.25-29

An active shape model based approach for Arabic handwritten character recognition

Dinges, Laslo; Hamadi, Ayoub; Elzobi, Moftah

In: 2012 11th International Conference on Signal Processing, ICSP 2012: October 21 - 25, 2012, Beijing, China / eds.: Yuan Baozong ... - Piscataway, NJ: IEEE; Yuan, Baozong . - 2012, insges. 4 S.Kongress: ICSP 11 (Beijing : 2012.10.21-25)

Neutral-independent geometric features for facil expression recognition

Saeed, Anwar; Al-Hamadi, Ayoub; Niese, Robert

In: Proceedings of the 2012 4th International Conference of Soft Computing and Pattern Recognition (SoCPaR). - Piscataway, NJ : IEEE, S. 79-83Kongress: SoCPaR; (Brunei) : 2012.12.10-13[Beitrag auf CD-ROM]

Image-based gesture recognition for user interaction with mobile companion-based assistance systems

Saxen, Frerk; Rashid, Omer; Al-Hamadi, Ayoub; Adler, Simon; Kernchen, Alexa; Mecke, Rüdiger

In: Proceedings of the 2012 4th International Conference of Soft Computing and Pattern Recognition (SoCPaR). - Piscataway, NJ : IEEE, S. 200-203Kongress: SoCPaR; (Brunei) : 2012.12.10-13[Beitrag auf CD-ROM]

Human action recognition via affine moment invariants

Sadek, Samy; Al-Hamadi, Ayoub; Michaelis, Bernd; Sayed, Usama

In: ICPR 2012. - IEEE Computer Society, S. 218-221Kongress: ICPR; 21 (Tsukuba, Japan) : 2012.11.11-15

Fast computation of dense and reliable depth maps from stereo images

Tornow, Michael; Grasshoff, Michael; Nguyen-Thien, Nghia; Al-Hamadi, Ayoub; Michaelis, Bernd

In: Machine vision. - InTech, S. 47-72, 2012

Arabic handwriting recognition using Gabor wavelet transform and SVM

Elzobi, Moftah; Al-Hamadi, Ayoub; Saeeb, Anwar; Dings, Laslo

In: 2012 11th International Conference on Signal Processing, ICSP 2012. - Piscataway, NJ : IEEE, insges. 4 S.Kongress: ICSP; 11 (Beijing) : 2012.10.21-25

Recognizing gestural actions

Rashid, Omer; Al-Hamadi, Ayoub

In: 2012 IEEE International Conference on Systems, Man, and Cybernetics (SMC 2012). - Piscataway, NJ : IEEE, S. 2682-2686Kongress: SMC 2012; (Seoul, Korea) : 2012.10.14-17

LDCRFs-based hand gesture recognition

Elmezain, Mahmoud; Al-Hamadi, Ayoub

In: 2012 IEEE International Conference on Systems, Man, and Cybernetics (SMC 2012). - Piscataway, NJ : IEEE, S. 2670-2675Kongress: SMC 2012; (Seoul, Korea) : 2012.10.14-17

Flow modeling and skin-based gaussian pruning to recognize gestrural actions using HMM

Rashid, Omer; Al-Hamadi, Ayoub

In: ICPR 2012. - IEEE Computer Society, S. 3488-3491Kongress: ICPR; 21 (Tsukuba, Japan) : 2012.11.11-15

Facial feature point detection using simplified Gabor wavelets and confidence-based grouping

Panning, Axel; Al-Hamadi, Ayoub; Michaelis, Bernd

In: 2012 IEEE International Conference on Systems, Man, and Cybernetics (SMC 2012). - Piscataway, NJ : IEEE, S. 2687-2692Kongress: SMC 2012; (Seoul, Korea) : 2012.10.14-17

Effective geometric features for human emotion recognition

Saeeb, Anwar; Al-Hamadi, Ayoub; Niese, Robert; Elzobi, Moftah

In: 2012 11th International Conference on Signal Processing, ICSP 2012. - Piscataway, NJ : IEEE, insges. 4 S.Kongress: ICSP; 11 (Beijing) : 2012.10.21-25

An SVM approach activity recognition based on chord-length-function shape features

Sadek, Samy; Al-Hamadi, Ayoub; Michaelis, Bernd; Sayed, Usama

In: ICIP 2012. - Piscataway, NJ : IEEE, S. 765-768Kongress: ICIP 2012; (Orlando, Fla.) : 2012.09.30-10.03

Multimodal affect recognition in spontaneous HCI environment

Panning, Axel; Siegert, Ingo; Al-Hamadi, Ayoub; Wendemuth, Andreas; Rösner, Dietmar; Frommer, Jörg; Krell, Gerald; Michaelis, Bernd

In: 2012 IEEE International Conference on Signal Processing, Communications and Computing (ICSPCC 2012) : Hong Kong, China, 12-15 August 2012 ; proceedings. - Piscataway, NJ : IEEE, insges. 6 S.Kongress: ICSPCC; (Hong Kong) : 2012.08.12-15

Pain recognition and intensity rating based on comparative learning

Werner, Philipp; Al-Hamadi, Ayoub; Niese, Robert

In: ICIP 2012. - Piscataway, NJ : IEEE, S. 2313-2316Kongress: ICIP 2012; (Orlando, Fla.) : 2012.09.30-10.03

Multi hypotheses based object tracking in HCI environments

Handrich, Sebastian; Al-Hamadi, Ayoub

In: ICIP 2012. - Piscataway, NJ : IEEE, S. 1981-1984Kongress: ICIP 2012; (Orlando, Fla.) : 2012.09.30-10.03

Multi-modal fusion framework with particle filter for speaker tracking

Saeed, Anwar; Al-Hamadi, Ayoub; Heuer, Michael

In: International journal of future generation communication and networking. - Taejŏn : SERSC, Bd. 5.2012, 4, S. 65-76

IESK-ArDB - a database for handwritten Arabic and an optimized topological segmentation approach

Elzobi, Moftan; Al-Hamadi, Ayoub; Al Aghbari, Zaher; Dings, Laslo

In: International journal on document analysis and recognition. - Berlin : Springer, insges. 14 S., 2012

Facial expression recognition based on geometric and optical flow features in colour image sequences

Niese, Robert; Al-Hamadi, Ayoub; Farag, Ali; Neumann, Heiko; Michaelis, Bernd

In: IET computer vision. - London : IET, Bd. 6.2012, 2, S. 79-89

Multi-object tracking in dynamic scenes by integrating statistical and cognitive approaches

Pathan, Saira Saleem; Rashid, Omer; Al-Hamadi, Ayoub; Michaelis, Bernd

In: International journal of computer science issues. - Mahebourg : SoftwareFirst, Bd. 9.2012, 4, S. 180-189

An integrated HCI framework for interpreting meaningful expressions

Rashid, Omer; Al-Hamadi, Ayoub

In: International journal of computer science issues. - Mahebourg : SoftwareFirst, Bd. 9.2012, 5, S. 411-421

Chord-length shape features for human activity recognition

Sadek, Samy; Al-Hamadi, Ayoub; Michaelis, Bernd; Sayed, Usama

In: ISRN machine vision. - New York, NY : International Scholarly Research Network, insges. 9 S., 2012

Behavior understanding in non-crowded and crowded scenes

Pathan, Saira Saleem; Michaelis, Bernd; Al-Hamadi, Ayoub

In: Magdeburg, Univ., Fak. für Elektrotechnik und Informationstechnik, Diss., 2012, XXIV, 176 S., Ill., graph. Darst.

A fast statistical approach for human activity recognition

Sadek, Samy; Al-Hamadi, Ayoub; Michaelis, Bernd; Sayed, Usama

In: International journal of computer information systems and industrial management applications. - Auburn, Wash : MIR Labs, Bd. 4.2012, S. 334-340

Interpretation of meaningful expressions by integrating gesture and posture modalities

Rashid, Omer; Al-Hamadi, Ayoub; Dietmayer, Klaus

In: International journal of computer information systems and industrial management applications. - Auburn, Wash : MIR Labs, Bd. 4.2012, S. 589-597

Stereo-camera-based urban environment perception using occupancy grid and object tracking

Nguyan, Thien-Nghia; Michaelis, Bernd; Al-Hamadi, Ayoub; Tornow, Michael; Meinecke, Marc-Michael

In: IEEE transactions on intelligent transportation systems. - New York, NY : Inst. of Electrical and Electronics Engineers, Bd. 13.2012, 1, S. 154-165

Improving of gesture recognition using multi-hypotheses object association

Handrich, Sebastian; Al-Hamadi, Ayoub; Rashid, Omer

In: Image and signal processing. - Heidelberg [u.a.] : Springer, S. 298-306, 2012 - (Lecture notes in computer science; 7340)Kongress: ICISP; 5 (Agadir) : 2012.06.28-30

Speaker tracking using multi-modal fusion framework

Saeed, Anwar; Al-Hamadi, Ayoub; Heuer, Michael

In: Image and signal processing. - Heidelberg [u.a.] : Springer, S. 539-546, 2012 - (Lecture notes in computer science; 7340)Kongress: ICISP; 5 (Agadir) : 2012.06.28-30

A new multi-camera based facial expression analysis concept

Niese, Robert; Al-Hamadi, Ayoub; Michaelis, Bernd

In: Image Analysis and Recognition ; Pt. II. - Berlin [u.a.] : Springer, S. 64-71, 2012 - (Lecture notes in computer science; 7325)Kongress: ICIAR; 9 (Aveiro, Portugal) : 2012.06.25-27

2011

Robust methods for hand gesture spotting and recognition using Hidden Markov models and conditional random fields

Elmezian, Mahmoud; Hamadi, Ayoub; Sadek, Samy; Michaelis, Bernd

In: IEEE International Symposium on Signal Processing and Information Technology - Piscataway, NJ: IEEE, 2011 . - 2011, S. 131-136Kongress: ISSPIT 10 (Luxor, Egypt : 2010.12.15-18)[Beitrag auf CD-ROM]

Human activity recognition via temporal moment invariants

Sadek, Samy; Hamadi, Ayoub; Elmezian, Mahmoud; Michaelis, Bernd; Sayed, Usama

In: IEEE International Symposium on Signal Processing and Information Technology - Piscataway, NJ: IEEE, 2011 . - 2011, S. 79-84Kongress: ISSPIT 10 (Luxor, Egypt : 2010.12.15-18)[Beitrag auf CD-ROM]

Machine vision based recognition of emotions using the circumplex model of affect

Niese, Robert; Hamadi, Ayoub; Heuer, Michael; Michaelis, Bernd; Matuszewski, Bogdan

In: 2011 International Conference on Multimedia Technology ; Vol. 7 - Piscataway, NJ: IEEE, 2011; Vol. 7 . - 2011, S. 6424-6427Kongress: ICMT (Hangzhou, China : 2011.07.26-28)

Multi-modal fusion with particle filter for speaker localization and tracking

Heuer, Michael; Hamadi, Ayoub; Michaelis, Bernd; Wendemuth, Andreas

In: 2011 International Conference on Multimedia Technology ; Vol. 7 - Piscataway, NJ: IEEE, 2011; Vol. 7 . - 2011, S. 6450-6453Kongress: ICMT (Hangzhou, China : 2011.07.26-28)

An action recognition scheme using fuzzy log-polar histogram and temporal self-similarity

Sadek, Samy; Hamadi, Ayoub; Michaelis, Bernd; Sayed, Usama

In: EURASIP journal on advances in signal processing - Heidelberg: Springer, 2007 . - 2011, insges. 9 S.

Offline automatic segmentation based recognition of handwritten arabic words

Dinges, Laslo; Hamadi, Ayoub; Elzobi, Moftah; Al Aghbari, Zaher; Mustafa, Hassan

In: International journal of signal processing, image processing and pattern recognition: IJSIP - Daejeon: Science and Engineering Research Support Center (SERSC), 2008, Bd. 4.2011, 4, S. 131-144

Efficient KNN search by linear projection of image clusters

Al Aghbari, Zaher; Hamadi, Ayoub

In: International journal of intelligent systems: IJIS - New York,NY: Wiley, 1986, Bd. 26.2011, 9, S. 844-865

Quantifying learning creativity through simulation and modeling of swarm intelligence and neural networks

Mustafa, Hassan M.; Al-Somani, Turki F.; Hamadi, Ayoub

In: International journal of online engineering: IJOE / Publisher: International Association of Online Engineering (IAOE): IJOE - Kassel: Kassel University Press GmbH, 2008, Bd. 7.2011, 2, S. 29-35

Face detection and localization in color images - an efficient neural approach

Sadek, Samy; Al-Hamadi, Ayoub; Michaelis, Bernd; Sayed, Usama

In: Journal of software engineering and applications. - Irvine, Calif : Scientific Research Publ, Bd. 4.2011, 12, S. 682-687

Interpreting dynamic meanings by integrating gesture and posture recognition system

Rashid, Omer; Hamadi, Ayoub; Michaelis, Bernd

In: Computer vision - ACCV 2010 workshops ; Pt. 1 - Heidelberg [u.a.]: Springer, 2011; Pt. 1 . - 2011, S. 307-317 - (Lecture Notes in Computer Science; 6468)Kongress: ACCV 2010 (Queenstown, New Zealand : 2010.11.08-09)

Synthizing handwritten arabic text using active shape models

Dinges, Laslo; Elzobi, Moftah; Hamadi, Ayoub; Al Aghbari, Zaher

In: Image processing and communications challenges ; 3 - Berlin [u.a.]: Springer, 2011; 3 . - 2011, S. 401-408 - (Advances in intelligent and soft computing; 102)

Using conditional random field for crowd behavior analysis

Pathan, Saira Saleem; Al-Hamadi, Ayoub; Michaelis, Bernd

In: Computer vision - ACCV 2010 workshops ; Pt. 1. - Heidelberg [u.a.] : Springer, S. 370-379, 2011 - (Lecture Notes in Computer Science; 6468)Kongress: ACCV 2010; (Queenstown, New Zealand) : 2010.11.08-09

Solving the hand-hand overlapping for gesture application

Saeed, Anwar; Al-Hamadi, Ayoub; Niese, Robert; Michaelis, Bernd

In: Image processing & communications challenges ; 3. - Berlin [u.a.] : Springer, S. 343-350, 2011 - (Advances in intelligent and soft computing; 102)

Hand-face-touch measure - a cue for human behavior analysis

Saeed, Anwar; Niese, Robert; Al-Hamadi, Ayoub; Panning, Axel

In: 2011 IEEE International Conference on Intelligent Computing and Intelligent Systems (ICIS). - Piscataway, NJ : IEEE, S. 605-609

Robust hand posture recognition with micro and macro level features using kinect

Rashid, Omer; Al-Hamadi, Ayoub; Michaelis, Bernd

In: 2011 IEEE International Conference on Intelligent Computing and Intelligent Systems (ICIS). - Piscataway, NJ : IEEE, S. 631-635

Learning a priori threshold to initialize flow-based adaptive mixture model for dynamic scene segmentation

pathan, Saira Saleem; Al-Hamadi, Ayoub; Rashid, Omer; Michaelis, Bernd

In: 2011 IEEE International Conference on Intelligent Computing and Intelligent Systems (ICIS). - Piscataway, NJ : IEEE, S. 691-695

2010

Integration of geometric and dynamic features for facial expression recognition in color image sequences

Niese, Robert; Hamadi, Ayoub; Michaelis, Bernd; Neumann, Heiko

In: 2010 International Conference of Soft Computing and Pattern Recognition - Piscataway, NJ: IEEE, 2010 . - 2010, S. 237-240Kongress: SoCPaR (Paris : 2010.12.07-10)[Beitrag auf CD-ROM]

Towards completely rotated simplified gabor wavelets for fast facial feature point detection

Panning, Axel; Hamadi, Ayoub; Michaelis, Bernd

In: 2010 17th IEEE International Conference on Image Processing: ICIP 2010 ; Hong Kong, 26 - 29. September 2010 - Piscataway, NJ: IEEE, 2010 . - 2010, S. 4509-4512Kongress: ICIP 17 (Hong Kong : 2010.09.26-29)

Toward robust action retrieval in video

Bakheet, Samy; Hamadi, Ayoub; Michaelis, Bernd; Sayed, Usama

In: Electronic Proceedings of the British Machine Vision Conference - Aberystwyth, 2010 . - 2010/11Kongress: BMVC 2010 (Aberystwyth : 2010.08.31-09.03)

Integrating statistical and cognitive model for multi-object tracking in realistic scenarios

Pathan, Saira Saleem; Al-Hamadi, Ayoub; Michaelis, Bernd

In: 25th International Conference Image and Vision Computing New Zealand (IVCNZ), 2010: 8 - 9 Nov. 2010, Queenstown - Piscataway, NJ: IEEE, 2010 . - 2010, insges. 8 S.Kongress: IVCNZ 25 (Queenstown : 2010.11.08-09)

Variable block-size image authentication with localization ad self-recovery

Hassan, Ammar M.; Hamadi, Ayoub; Hasan, Yassin M. Y.; Wahab, Mohamed A. A.; Panning, Axel; Michaelis, Bernd

In: 2010 17th IEEE International Conference on Image Processing: ICIP 2010 ; Hong Kong, 26 - 29. September 2010 - Piscataway, NJ: IEEE, 2010 . - 2010, S. 3665-3668Kongress: ICIP 17 (Hong Kong : 2010.09.26-29)

Aus technischen Gründen können nur 200 Publikationen angezeigt werden.

Mehr im Forschungsportal ansehen.

  • University of Sharjah,(UAE), Prof. Dr. Zaher Al Aghbari
  • Universität Ulm, Prof. Dr. Harald C. Traue
  • Volkswagen AG, Konzernforschung; Forschung Virtuelle Technik/ Dr.-Ing. J. Tümler und Prof. S. Werner
  • Fraunhofer IFF Magdeburg, Geschäftsfeld Virtual Engineering/ Dr.-Ing. R. Mecke
  • Universität Ulm, Prof. Dr-Ing. Klaus Dietmayer
  • Universität Ulm, Prof. Dr. phil. habil. Anke Huckauf
  • Universität Ulm, Prof. Dr.-Ing. Heiko Neumann
  • University of Louisville,(USA), Prof. Dr. Farag
  • Volkswagen AG, Konzernforschung,; Forschung Virtuelle Technik
  • Carl-Zeiss AG
  • Fraunhofer IHH Berlin
  • Fraunhofer-Institut für Werkzeugmaschinen und Umformtechnik IWU
  • Martin-Mechanic GmbH
  • Pilz GmbH & Co. KG, Ostfildern
  • Prof. Dr. Joachim Weimann
  • Universität Bielefeld
  • Universitätsklinik Ulm, Prof. Eberhard Barth
  • Universitätsklinik Ulm, Prof Steffen Walter
  • Universität Ulm, Prof. Steffen Walter
  • University of Central Lancashire, UK
  • ZBS e.V. / GBS GmbH Illmenau
Informationstechnik

  • Bildverarbeitung und -verstehen
  • Mustererkennung
  • 3D-Vermessung und  Oberflächeninspektion in 3D

Mensch-Maschine-Interaktion

  • Gesten- und Mimikerkennung
  • Aktions- und Eventerkennung
  • Handschrifterkennung

Informationsfusion

  • Umgebungs- und Situationsmodellierung
  • Emotions- und Intentionserkennung
Keine Daten im Forschungsportal hinterlegt.
  • Ayoub K. Al-Hamadi received his Masters Degree in Electrical Engineering & Information Technology in 1997 and his PhD. in Technical Computer Science at the Otto-von-Guericke-University of Magdeburg, Germany in 2001.
  • Since 2003 he has been Junior-Research-Group-Leader at the Institute for Electronics, Signal Processing and Communications at the Otto-von-Guericke-University Magdeburg.
  • In 2008 he became Professor of Neuro-Information Technology at the Otto-von-Guericke University Magdeburg.
  • In May 2010 Prof. Al-Hamadi received the Habilitation in Artificial Intelligence and the Venia Legendi in the scientific field of "Pattern Recognition and Image Processing" from Otto-von-Guericke-University Magdeburg, Germany
  • Prof. Al-Hamadi is the author of more than 300 articles in peer-reviewed international journals, conferences and books.
Keine Daten im Forschungsportal hinterlegt.

Letzte Änderung: 08.06.2023 - Ansprechpartner: