beyond EVE
Detailansicht

Self-aware AI: How can a neural network learn to say „I do not know“?

23.11.2020
Beginn 17:30 Uhr, Ende 22:00 Uhr

Deep learning gilt derzeit als das mächtigste generische Werkzeug zur Entwicklung intelligenter Systeme. Tiefe neuronale Netze haben eine noch nie dagewesene Vorhersagegenauigkeit erreicht, so dass sie die besten bioinformatischen Techniken in der Proteinfaltungsvorhersage und die besten Sprachverständnismethoden in der Textanalyse ohne jegliche Domänenkenntnisse übertroffen haben. Neuronale Netze verdanken ihren Erfolg ihrer Fähigkeit, Daten auf parametrische Weise zu speichern.
Eine erfolgreiche neuronale Netzwerkarchitektur hat typischerweise eine größere Anzahl von Parametern als Beobachtungen. Diese Eigenschaft führt zu einem schwerwiegenden Artefakt: Neuronale Netze sind nicht in der Lage, Unsicherheiten durch ihre Schichten richtig zu propagieren, sie sind also nicht in der Lage, ihren Vorhersagen sinnvolle Unsicherheiten zuzuschreiben. Dies führt dazu, dass ein neuronales Netz, das auf handgeschriebene Ziffern trainiert wurde, das Bild einer Katze mit hoher Sicherheit einer zufälligen Ziffer zuordnet, was seine sichere und zuverlässige Anwendung in industriellen Szenarien fragwürdig macht.

Dieser Vortrag führt in die Grundlagen der Unsicherheitsquantifizierung in neuronalen Netzen ein, führt durch eine Zusammenstellung der jüngsten Forschungsherausforderungen in diesem Bereich und bietet Einblicke in die wichtigsten Anwendungsfälle der Industrie für KI-Methoden mit Unsicherheitsbewusstsein.

Vortragender: Dr. Melih Kandemir, Bosch Center for Artificial Intelligence

Registration ab Montag, den 26. Oktober.
Vortragssprache: Englisch

Reihe: Industriegespräche Rhein/Neckar

Profession

Typ

  • Vortrag
Kontakt

Deutsche Physikalische Gesellschaft
Dr. Andreas Fehlner
E-Mail: industriegespraeche-rn@dpg-mail.de

Adresse

Kurfürstenanlage 52,
Heidelberg Laureate Forum Foundation
69115 Heidelberg
Deutschland

Im Kalender speichern