Jürgen Schmidhuber- Jürgen Schmidhuber

Jürgen Schmidhuber
Jürgen Schmidhuber.jpg
Schmidhuber spricht auf dem AI for GOOD Global Summit 2017
Geboren 17. Januar 1963
Staatsangehörigkeit Deutsch
Alma Mater Technische Universität München
Bekannt für Künstliche Intelligenz , Deep Learning , Künstliche Neuronale Netze , Rekurrente Neuronale Netze , Gödel-Maschine , Künstliche Neugier, Meta-Learning
Wissenschaftlicher Werdegang
Felder Künstliche Intelligenz
Institutionen Dalle Molle Institut für Künstliche Intelligenzforschung
Webseite Leute .idsia .ch /~juergen

Jürgen Schmidhuber (* 17. Januar 1963) ist ein Informatiker, der vor allem für seine Arbeiten auf dem Gebiet der künstlichen Intelligenz , des Deep Learning und der künstlichen neuronalen Netze bekannt ist . Er ist Co-Direktor des Dalle Molle Institut für Artificial Intelligence Research in Lugano , in Tessin im Süden Schweiz . Nach Google Scholar erhielt er von 2016 bis 2021 mehr als 100.000 wissenschaftliche Zitate ( Profil ). Er wurde als "Vater der modernen KI", "Vater der KI", "Vater der ausgereiften KI", "Papa" berühmter KI-Produkte, "Godfather" und "Vater des Deep Learning" bezeichnet. (Schmidhuber selbst hat jedoch Alexey Grigorevich Ivakhnenko als "Vater des Deep Learning" bezeichnet.)

Schmidhuber hat sein Studium an der Technischen Universität München in München absolviert. Dort lehrte er von 2004 bis 2009, als er Professor für Künstliche Intelligenz an der Università della Svizzera Italiana in Lugano , Schweiz, wurde.

Arbeit

Mit seinen Studenten Sepp Hochreiter , Felix Gers , Fred Cummins, Alex Graves und anderen veröffentlichte Schmidhuber immer ausgefeiltere Versionen einer Art von rekurrenten neuronalen Netzen namens Long Short-Term Memory (LSTM). Erste Ergebnisse wurden bereits in Hochreiters Diplomarbeit (1991) berichtet, die das berühmte Problem des verschwindenden Gradienten analysiert und überwunden hat. Der Name LSTM wurde in einem technischen Bericht (1995) eingeführt, der zur meistzitierten LSTM-Publikation (1997) führte.

Die Standard-LSTM-Architektur, die in fast allen aktuellen Anwendungen zum Einsatz kommt, wurde im Jahr 2000 eingeführt. Das heutige "Vanilla LSTM" mit Backpropagation through Time wurde 2005 und sein konnektionistischer zeitlicher Klassifikations- Trainingsalgorithmus (CTC) 2006 veröffentlicht. CTC ermöglichte End-to- Spracherkennung mit LSTM beenden. Im Jahr 2015 wurde von CTC trainiertes LSTM in einer neuen Implementierung der Spracherkennung in Googles Software für Smartphones verwendet . Google hat LSTM auch für den intelligenten Assistenten Allo und für Google Translate verwendet . Apple hat LSTM für die "Quicktype"-Funktion auf dem iPhone und für Siri verwendet . Amazon hat LSTM für Amazon Alexa verwendet . Im Jahr 2017 führte Facebook täglich rund 4,5 Milliarden automatische Übersetzungen über LSTM-Netzwerke durch. Bloomberg Business Week schrieb: "Diese Kräfte machen LSTM wohl zur kommerziellsten KI-Errungenschaft, die für alles verwendet wird, von der Vorhersage von Krankheiten bis zum Komponieren von Musik."

2011 erreichte Schmidhubers Team am IDSIA mit seinem Postdoc Dan Ciresan auch dramatische Beschleunigungen von Convolutional Neural Networks (CNNs) auf schnellen Parallelrechnern, sogenannten GPUs . Ein früheres CNN auf GPU von Chellapilla et al. (2006) war viermal schneller als eine entsprechende Implementierung auf der CPU. Das tiefe CNN von Dan Ciresan et al. (2011) bei IDSIA war bereits 60 Mal schneller und erzielte im August 2011 die erste übermenschliche Leistung bei einem Computer Vision Contest. Zwischen dem 15. Mai 2011 und dem 10. September 2012 gewannen ihre schnellen und tiefen CNNs nicht weniger als vier Bildwettbewerbe. Sie auch auf der besten Leistung in der Literatur für mehrere Bild deutlich verbesserte Datenbanken . Der Ansatz ist im Bereich der Computer Vision zentral geworden . Es basiert auf CNN-Designs, die viel früher von Yann LeCun et al. (1989), der den Backpropagation- Algorithmus auf eine Variante von Kunihiko Fukushimas ursprünglicher CNN-Architektur namens Neocognitron anwendete , die später durch J. Wengs Methode namens Max-Pooling modifiziert wurde .

2014 gründete Schmidhuber das Unternehmen Nnaisense, um an kommerziellen Anwendungen künstlicher Intelligenz in Bereichen wie Finanzen, Schwerindustrie und selbstfahrenden Autos zu arbeiten . Sepp Hochreiter, Jaan Tallinn und Marcus Hutter beraten das Unternehmen. Der Umsatz lag 2016 unter 11 Millionen US-Dollar; Allerdings, so Schmidhuber, gehe es derzeit um Forschung und nicht um Einnahmen. Nnaisense hat seine erste Finanzierungsrunde im Januar 2017 aufgenommen. Das übergeordnete Ziel von Schmidhuber ist es, eine Allzweck-KI zu schaffen, indem eine einzelne KI nacheinander auf eine Vielzahl von engen Aufgaben trainiert wird.

Ansichten

Laut The Guardian beklagte sich Schmidhuber in einem „vernichtenden Artikel aus dem Jahr 2015“, dass die Deep-Learning- Forscher Geoffrey Hinton , Yann LeCun und Yoshua Bengio „sich stark zitieren“, aber „die Pioniere des Feldes nicht würdigen “ und die Beiträge angeblich untertrieben von Schmidhuber und anderen frühen Pionieren des maschinellen Lernens, darunter Alexey Grigorevich Ivakhnenko , der bereits 1965 die ersten Deep-Learning- Netzwerke veröffentlichte . Schmidhuber antwortete, dass LeCun kein einziges Beispiel für seine Aussage lieferte, und listete mehrere vorrangige Streitigkeiten auf .

Erkennung

Schmidhuber erhielt 2013 den Helmholtz-Preis der International Neural Network Society und 2016 den Neural Networks Pioneer Award der IEEE Computational Intelligence Society für „pionierhafte Beiträge zu Deep Learning und neuronalen Netzen“. Er ist Mitglied der Europäischen Akademie der Wissenschaften und Künste .

Verweise