Canon hat viel Lärm um sein neues Deep Learning AF-System gemacht, das das Herzstück der neuesten professionellen Flaggschiff-Kamera des Herstellers bildet. Es klingt unglaublich klug, aber es gibt viele Fragen - was ist Deep Learning? Wer unterrichtet? Lernt das System beim Schießen? Ist es wirklich künstliche Intelligenz in einer Kamera? Verbessert es tatsächlich den Autofokus?
Wenn Sie unseren Testbericht zur Canon EOS-1D X Mark III gelesen haben, wissen Sie, dass die Antwort auf die letzte Frage ein klares Ja ist. Was die Antworten auf die anderen Fragen zu Deep Learning AF betrifft, schnappen Sie sich ein Getränk und einen Snack und lesen Sie weiter…
Die Autofokusmechanik der Canon EOS-1D X Mark III ist unglaublich clever und unterstützt zwei einzelne AF-Systeme. Das erste ist das optische System, das 16 Bilder pro Sekunde durch den Sucher mit einem 400.000-Pixel-Messsensor in Verbindung mit einem dedizierten Digic 8-Prozessor für 191-Punkt-AF mit Gesichtsverfolgung aufnimmt.
Dann gibt es das Live View-System, das 20 Bilder pro Sekunde aufnehmen kann und alle 20,1 Millionen Pixel des Bildsensors in Kombination mit dem neuen Digic X-Prozessor für 3.869 CMOS-Punkte mit zwei Pixeln verwendet, die einen AF mit vollständiger Augenerkennung ausführen können.
Die Stromversorgung dieser beiden Systeme erfolgt durch die EOS iTR AFX-Kerntechnologie von Canon - die neueste Version des Autofokus für intelligente Verfolgung und Erkennung, der in der ursprünglichen EOS-1D X (und anschließend in der 7D Mark II- und 5D-Familie) eingeführt wurde. In seiner Schaltung steckt der Deep-Learning-Algorithmus.
Deep Learning ist NICHT dasselbe wie KI
Zunächst muss klargestellt werden, dass Deep Learning nicht mit künstlicher Intelligenz (KI) verwechselt werden darf. Ein KI-System befindet sich in einem ständigen Entwicklungsstadium. Deep Learning oder maschinelles Lernen ist eine Teilmenge der KI.
Im Gegensatz zu echter KI ist Deep Learning ein geschlossener Prozess. Es handelt sich um einen Vormontagealgorithmus, mit dem sich die Kameraarchitektur wesentlich schneller selbst beibringen kann, als dies von menschlichen Ingenieuren manuell programmiert werden könnte. Sobald dieses Lernen abgeschlossen ist, wird es gesperrt und in die Kamera geladen.
Ab diesem Zeitpunkt ist kein Lernen mehr möglich. Trotz des Namens - und Deep Learning ist der Name der Technologie, keine Beschreibung des Prozesses - lernt die Kamera nicht ständig und wird nicht "besser", je mehr Sie aufnehmen (tatsächlich würde ein echtes KI-System so viele lernen von deinen schlechten Gewohnheiten wie von deinen guten!).
"Es wurde gelehrt", erklärt Mike Burnhill, Manager für technischen Support bei Canon Europe. "Sie setzen es in einen Computer ein, es erstellt den Algorithmus, der dann in die Kamera geladen wird. Es unterscheidet sich also von KI - KI ist ein kontinuierliches Lernen; tiefes Lernen ist im Grunde genommen, es lehrt sich selbst und gibt Ihnen ein Endergebnis, das dann geladen wird in die Kamera. "
Was die Frage aufwirft: Ist eine Kamera bei so vielen Unternehmen, die über AI-basierte Funktionen schreien, tatsächlich in der Lage, künstliche Intelligenz zu unterstützen?
"Die Rechenleistung für echte KI ist in einer Kamera nicht realisierbar", sagt Burnhill. "Wenn Sie das tun möchten, gibt es Telefone - aber die Daten befinden sich nicht in Ihrem Telefon, sondern im Silicon Valley. Dort befindet sich das KI-System. Es ist nur so, dass Ihre Telefonverbindung eine Verbindung dazu herstellt - es ist nicht hier, es ist dort (in die Wolke), weil Sie einen Server brauchen. Wir könnten eine Kamera machen, aber Sie würden die ganze Zeit einen riesigen Flightcase mit sich herumschleppen. "
Wie lehrt sich Deep Learning?
Der Deep Learning-Algorithmus lehrt sich also selbst - aber woher lernt er eigentlich? Die Antwort lautet einfach „von den Besten“.
"Canon hat mit unseren Agenturen zusammengearbeitet", sagt Burnhill. "Wir haben im Grunde genommen von allen großen Agenturen Zugriff auf ihre gesamte Bilddatenbank für Sportfotografie erhalten. Wir haben mit unseren Botschaftern zusammengearbeitet, die Sport fotografieren, und sie haben ihre Bilder zu verschiedenen Themen bereitgestellt. Dadurch konnten wir diesem AF-System das Erkennen beibringen." Menschen im Sport. "
Sport ist natürlich die gezielte Lehrmethode, da die Canon EOS-1D X Mark III in erster Linie eine Sportkamera ist. Das Problem ist, ob es sich um einen Basketballspieler handelt, der von der Kamera abgewandt ist, einen Skifahrer, der eine Schutzbrille trägt, oder einen Formel-1-Fahrer, der einen Helm trägt. Wenn dies nicht funktioniert, wird die Kamera stattdessen auf Dinge wie die Zahlen auf der Uniform eines Spielers fixiert.
Indem dem Deep Learning-Algorithmus Zugriff auf eine umfangreiche Bildbibliothek gewährt wird, von verkehrten Turnern bis hin zu Hockeyspielern, die Polster und Helme tragen, kann er die menschliche Form in einer endlosen Vielfalt von Situationen lernen und differenzieren - und ist letztendlich in der Lage um diese "Kopferkennung" durchzuführen, so dass selbst wenn das Gesicht der Person nicht sichtbar ist, der Kopf immer der primäre Fokuspunkt ist.
"Deep Learning besteht im Grunde aus Bildern. Sie erstellen eine Reihe von Regeln, nach denen es lernen kann. Dann geht es los und es wird ein eigener Algorithmus erstellt", fährt Burnhill fort. "Also legen Sie die Parameter fest, wie die Person aussehen würde. Sie gehen: 'Hier ist die Person', dann analysiert sie alle Bilder von Menschen und sagt: 'Dies ist eine Person', 'Das ist eine Person'. Es geht über einen bestimmten Zeitraum Millionen von Bildern durch und erstellt diese Datenbank, und sie lernt von selbst. "
Tatsächlich erstellt der Algorithmus zwei Datenbanken - eine zur Wartung des AF-Systems des optischen Suchers und der Messung mit Digic 8 und eine zur Wartung des Live View AF-Systems mit Digic X. Da Digic X die gesamte Berechnung übernimmt Head Tracking: Sobald der AF-Algorithmus eine Person im Frame erkennt, wird alles auf den neuen Prozessor übertragen.
"Sobald Sie eine Person eingestellt haben, wird tatsächlich eine doppelte Verarbeitung durchgeführt", sagt Burnhill. "Hier gibt es zwei Datenbanken, da die Eingaben von beiden Sensoren leicht unterschiedlich sein werden. Die Art und Weise, wie sie erkannt werden, wird sich also geringfügig unterscheiden. Dies sind also Teilmengen desselben Algorithmus. Die Kerndaten für beide sind gleich, es ist nur so wie es erkannt und die richtigen Daten darauf angewendet werden. "
Wenn es keine neuen Dinge lernen kann … was ist mit Tier-AF?
Natürlich ist die Canon EOS-1D X Mark III nicht nur eine Sportkamera - das andere Hauptpublikum sind Wildlife-Shooter. Die Kamera verfügt jedoch nicht über eine Autofokusfunktion für Tiere, und wir haben festgestellt, dass Deep Learning keine neuen Tricks lernen kann, sobald es in die Kamera eingebrannt wurde. Also ist es das? Wird sich die Kamera bei all dieser ausgefallenen neuen Technologie nicht einmal auf den Familienhund konzentrieren?
Es ist wahr, dass die Kamera derzeit keinen AF für Tiere (oder Tieraugen) aufweist. "Grundsätzlich konzentrieren wir uns zunächst auf Menschen, damit diese Art von Algorithmus zuerst funktioniert", antwortet Burnhill. "Deshalb haben wir uns auf den Sport konzentriert, weil dies ein festgelegter Parameter ist und wir ihn in einem bestimmten Zeitraum unterrichten können."
Die Antwort liegt also in der Firmware. Burnhill bestätigte, dass die Kamera möglicherweise mehr Deep Learning durchlaufen kann, beispielsweise für Vögel und wild lebende Tiere, und dass dieser aktualisierte Algorithmus über Firmware-Updates an die Benutzer weitergegeben werden kann - es gibt jedoch keine konkreten Pläne, dies bekannt zu geben.
"Wir werden es die ganze Zeit weiterentwickeln, daher ist es im Moment noch unentschlossen, wie und wohin wir gehen. Aber das Entwicklungsteam geht und schaut sich andere Tierfotografien an - wir erkennen, dass es eine ganze Reihe von Feldern gibt, aber offensichtlich die großen Der Fokus dieser Kamera liegt auf Sport und dann auf Wildtieren, und bei Tokio 2022-2023 war dies offensichtlich die Priorität. "
Es ist ein fairer Punkt; Wenn Canon darauf gewartet hätte, dass Deep Learning alles lernt, hätte es länger gedauert, bis die Kamera freigegeben wurde. Und obwohl Hersteller wie Sony einige selektive Tier-AF in ihren Kameras haben, merkt Burnhill an, dass Canon lieber eine komplette Tier-AF-Lösung als eine selektive, stückweise veröffentlichen würde. Und hier wird Deep Learning von unschätzbarem Wert.
"Das Problem ist mit der Tierwelt, es gibt viele verschiedene Tiere - Sie haben offensichtlich Raubtiere mit den Augen vorne und dann haben Sie Kaninchen (Augen) an der Seite, Sie haben Schlangen, Sie haben Vögel … es gibt kein System, das erkennt die Gesichter aller Tiere. Und hier kommt man in dieses ganze tiefe Lernen, das System zu lehren, diese komplexen Dinge zu erkennen. "
Während Ihr Sony möglicherweise Ihren Hund oder Ihre Katze verfolgen kann, aber keinen Salamander oder Flamingo, möchte Canon eine Kamera produzieren, die alles oder nichts kann. "Wenn wir es machen würden, würden wir es für ein möglichst breites Spektrum machen wollen - wir wollen keine hundefreundliche Kamera und keine katzenfreundliche Kamera machen, wir wollen eine tierfreundliche Kamera machen das funktioniert für die breite Palette von Tieren, die (Profis) schießen würden. "
Canon EOS-1D X Mark III Test
Wie hat Canon die schnellste DSLR aller Zeiten hergestellt? Durch Neugestaltung der Spiegelbox
102 Updates für die Canon EOS-1D X Mark III