
Mar 06, 2025
- Unternehmen
- Pressemitteilung
- Forschung und Entwicklung
Oct 10, 2023
Unternehmen / Pressemitteilung
Auf der International Conference on Computer Vision (ICCV) 2023 veröffentlichtes Forschungspapier stellt neue Methode vor, um die Genauigkeit zu erhöhen und so Fehlidentifikationen und Fehler zu reduzieren
Tokio, Japan–Panasonic Connect Co., Ltd. gab heute bekannt, dass sich eine neue Gesichtserkennungstechnologie, die gemeinsam von Panasonic Connect, dem Panasonic R&D Centre Singapore (Singapore Research Institute) und der NTU Singapore (Nanyang Technological University, Singapur) entwickelt wurde, als wirksam zur Verbesserung erwiesen hat die Genauigkeit der Gesichtserkennung bei Nichtkaukasiern und Frauen, die aufgrund der kleineren Datensätze, die traditionell für das Training von Gesichtserkennungsmodellen zur Verfügung standen, ein herkömmliches und branchenweites Problem war. Ein Forschungsbericht über die neue Methode wurde zur Veröffentlichung auf der International Conference on Computer Vision (ICCV) 2023 *1 angenommen, der führenden Konferenz im Bereich der Bilderkennung *2, was den internationalen Wert der neuen Technologie hervorhebt. *3
Herkömmliche Gesichtserkennungstechnologien weisen tendenziell eine geringe Erkennungsgenauigkeit für nicht-kaukasische Rassen und Frauen auf, da zum Trainieren der Erkennungsmodelle kleinere Datensätze verwendet werden. Eine geringere Erkennungsgenauigkeit kann daher zu Fehlern oder sogar falschen Identifizierungen führen. Um dieses Problem anzugehen, haben die drei Organisationen eine Technologie namens „Invariant Feature Regularization for Fair Face Recognition“ entwickelt, die das „partitionsbasierte invariante Lernen“ anwendet (https://openaccess.thecvf.com/content/ICCV2023/html/Ma_Invariant_Feature_Regularization_for_Fair_Face_Recognition_ICCV_2023_paper .html) Methode des Deep Learning zur Gesichtserkennung zum ersten Mal. *4 Durch das Erlernen eines Gesichtserkennungsmodells, das für verschiedene Attribute allgemein wirksam ist, ist es dieser Technologie gelungen, die Fehlerrate bei Rennen mit kleinen Datensätzen und die Fehlerrate bei Frauen zu reduzieren, ohne die Genauigkeit bei Rennen mit großen Datensätzen zu beeinträchtigen.
Panasonic Connect setzt sich dafür ein, ein faires Umfeld für alle zu schaffen, unabhängig von Nationalität oder Geschlecht. Die neue Technologie spiegelt unsere kontinuierlichen Bemühungen wider, sicherzustellen, dass Gesichtserkennungsanwendungen unabhängig von Rasse oder Geschlecht gleichermaßen und fair genutzt werden können.
Panasonic Connect setzt sich dafür ein, ein faires Umfeld für alle zu schaffen, unabhängig von Nationalität oder Geschlecht. Die neue Technologie spiegelt unsere kontinuierlichen Bemühungen wider, sicherzustellen, dass Gesichtserkennungsanwendungen unabhängig von Rasse oder Geschlecht gleichermaßen und fair genutzt werden können.
Mit der Gesichtserkennungstechnologie von Panasonic Connect möchte das Unternehmen faire Bedingungen für alle schaffen. Ein allgemeines branchenweites Problem besteht jedoch bisher darin, dass die Genauigkeit der Gesichtserkennung bei Rassen und Geschlechtern, für die nur wenige Datensätze zum Trainieren zur Verfügung stehen, tendenziell geringer ist. Die Trainingsdaten für die Gesichtserkennung spiegeln reale Bevölkerungsanteile wider, sodass der Umfang der Daten je nach Rasse und Geschlecht variiert. Die Deep-Learning-Technologie, die die Grundlage der Gesichtserkennungstechnologie bildet, erfordert große Mengen an Trainingsdaten und wird durch Unterschiede in der Größe dieser Daten beeinflusst, was zu Unterschieden in der Genauigkeit zwischen Attributen (Rassen und Geschlechter) führt.
Um die Auswirkungen dieser Verzerrung auf Gesichtslerndaten zu mildern, konzentrierte sich die gemeinsame Entwicklung auf eine Technik im Deep Learning, die als partitionsbasiertes invariantes Lernen bezeichnet wird. Die Methode unterteilt die Gesichtstrainingsdaten automatisch in Gruppen (Partitionen) für jedes Attribut, wie im Diagramm unten dargestellt, und verwendet dabei die Erkennungsschwierigkeit als Indikator. Es lernt auch die Darstellung invarianter Merkmale, was die Genauigkeit aller Partitionen verbessert. Durch mehrmaliges Durchführen dieses partitionsbasierten invarianten Lernens wird die Merkmalsdarstellung erlernt, die für verschiedene Partitionen wie Rasse und Geschlecht stets verfügbar ist – das heißt, es wird Schritt für Schritt ein Gesichtserkennungsmodell erlernt, das für eine Vielzahl von Attributen effektiv ist.
Diese Methode erreichte in Kombination mit der herkömmlichen Gesichtserkennungsmethode die höchste Genauigkeit mit einer durchschnittlichen Genauigkeit für vier Rassengruppen (Afrikaner, Kaukasier, Südasiaten und Ostasiaten) bei der Masked Face Recognition Challenge *5, einem Bewertungsdatensatz, der die Genauigkeit überprüfen kann für jede Rassengruppe. Darüber hinaus wurde die Akzeptanzfehlerquote bei Frauen im Vergleich zur herkömmlichen Gesichtserkennungsmethode auf CelebA *6 reduziert, einem Bewertungsdatensatz, der die Genauigkeit nach Geschlecht validiert.
*1: Eine alle zwei Jahre stattfindende Forschungskonferenz, die von der Computer Society des Institute of Electrical and Electronics Engineers (IEEE) und der CVF (Computer Vision Foundation) gesponsert wird. Sie gilt neben CVPR (Computer Vision and Pattern Recognition Conference) und ECCV (European Conference on Computer Vision) als eine der Top-Computer-Vision-Konferenzen.
*2: Bilderkennung ist die Softwaretechnologie zur Identifizierung von Objekten, Orten, Personen usw. in digitalen Bildern.
*3: Mit der Zunahme der Forschung im Bereich Computer Vision in den letzten Jahren ist die Schwierigkeit der Akzeptanz gestiegen, und die Akzeptanzquote beim ICCV 2023 lag bei 26,15 %.
*4: Stand 10. Oktober 2023 (nach eigener Recherche).
*5: Herausforderung zur Erkennung maskierter Gesichter. Ein Wettbewerb, der Bewertungsdatensätze für verschiedene Themen wie Masken, Kleinkinder und mehrere Rassen bereitstellt. Das veröffentlichte Papier überprüft die Genauigkeit jedes Rennens anhand eines Bewertungsdatensatzes, der auf mehrere Rennen abzielt.
*6: Umfangreicher CelebFaces-Attributdatensatz. Es bietet fundierte Bezeichnungen für feinkörnige Attribute, z. B. Geschlecht, Haarfarbe und Stil. Die veröffentlichte Arbeit überprüft anhand dieses Datensatzes die Genauigkeit jedes Geschlechts.
Invariante Merkmalsregularisierung für faire Gesichtserkennung
https://openaccess.thecvf.com/content/ICCV2023/html/Ma_Invariant_Feature_Regularization_for_Fair_Face_Recognition_ICCV_2023_paper.html
Jiali Ma, Zhongqi Yue, Kagaya Tomoyuki, Suzuki Tomoki, Karlekar Jayashree, Sugiri Pranata, Hanwang Zhang
Über Panasonic Connect Panasonic Connect Co., Ltd. (https://connect.panasonic.com/) wurde am 1. April 2022 im Zuge der Umwandlung der Panasonic Group (https://www.panasonic.com/global) in eine Betriebsgesellschaft gegründet System. Mit rund 29.500 Mitarbeitern weltweit und einem Jahresumsatz von 1.125,7 Milliarden JPY spielt das Unternehmen eine zentrale Rolle beim Wachstum des B2B-Lösungsgeschäfts der Panasonic-Gruppe und bietet seinen Kunden durch die Kombination fortschrittlicher Hardware, intelligenter Softwarelösungen und einer Fülle von Wissen neue Werte im Wirtschaftsingenieurwesen, die sich in seiner über 100-jährigen Geschichte angesammelt hat. Der Zweck des Unternehmens besteht darin, „die Arbeit zu verändern, die Gesellschaft voranzutreiben, sich mit der Zukunft zu verbinden“. Durch die Förderung von Innovationen in den Bereichen Lieferkette, öffentliche Dienstleistungen, Infrastruktur und Unterhaltung möchte Panasonic Connect zur Verwirklichung einer nachhaltigen Gesellschaft beitragen und Wohlbefinden aller gewährleisten. |
Der Inhalt dieser Website ist zum Zeitpunkt der Veröffentlichung korrekt, kann jedoch ohne vorherige Ankündigung geändert werden.
Bitte beachten Sie daher, dass diese Dokumente möglicherweise nicht immer die aktuellsten Informationen enthalten.
Bitte beachten Sie, dass es sich bei der deutschen, französischen und chinesischen Version um maschinelle Übersetzungen handelt, sodass Qualität und Genauigkeit variieren können.