Visual

Beyond

Intelligente Fotokolorierung

… finally fit for Photoshop

im September 2017
von Christine Steinhart

Ansel Adams wäre wenig erfreut, könnte er das sehen:

Während man jedes Bild in Sekunden von einem Farbfoto in ein Schwarz-Weiß-Foto verwandeln kann, ist der umgekehrte Weg bisher noch schwierig bis unmöglich. Bildkolorierung gilt als Herausforderung, auf die es zwar viele Ansätze, aber kaum eine zufriedenstellende Antwort gibt – das wird sich jetzt ändern. Wissenschaftler der UC Berkeley hatten bereits 2016 einen Computer-Vision-Algorithmus vorgestellt, mit dem sich Schwarz-Weiß-Fotos vollautomatisch kolorieren ließen. Während bisherige Ansätze mit Kontrasten und Kanten arbeiteten, lernte dieses Netzwerk erstmals eine semantische Repräsentation des Bildes – eine völlig neue Herangehensweise, die erst durch Deep-Learning-Verfahren möglich wurde.

So bahnbrechend diese Ansätze für eine Vielzahl von Anwendungen im Bereich Computer Vision auch waren, die Version zur automatischen Bildkolorierung war für die Anwendung noch zu wenig ausgereift. Vor kurzem stellten Richard Zhang und seine Kollegen ein Update der Methode vor – mit einem entscheidenden Unterschied: Die Kolorierung erfolgt benutzergeführt – das Ergebnis ist bemerkenswert und wird die Fotografie und Bildbearbeitung verändern.

Interaktive Kolorierung in Echtzeit

Die Anwendung der Software ist denkbar einfach: Das Bild wird zunächst automatisch eingefärbt, dann macht die Software dem Nutzer Farbvorschläge, mit denen er die Kolorierung anpassen kann.

Foto: Dorothea Lange / Zhang et al.

Nachdem man die Farbmarken gesetzt hat, orientiert sich das Programm bei der Kolorierung an diesen Marken und koloriert das Bild in Echtzeit. Möglich ist das durch die neuesten wissenschaftliche Erkenntnisse aus dem Bereich der künstlichen Intelligenz und ihrem neuen Spielzeug, dem Deep Learning.

Das Know-How hinter der Benutzeroberfläche

In einem ersten Schritt trainierten die Wissenschaftler ein Modell mit Trainingsdaten aus rund einer Million Bildern aus dem Imagenet-Datensatz. Anhand von Bildpaaren aus einem Schwarz-Weiß-Foto und einem Farbfoto lernt ein Generator, eine plausible Farbversion eines Schwarz-Weiß-Fotos zu erstellen. Das Besondere an dieser Methode ist, dass der Generator seine Denkweise an die des Menschen angepasst hat: Statt Ecken und Kanten zu detektieren lernt das Modell jetzt eine semantische Repräsentation des Bildes: Es ist in der Lage zu erkennen, dass es sich bei bestimmten Bildbereichen um Augen, Hände oder eine Nase handelt. Das Problem hierbei ist jedoch, dass das Modell viele unscharfe oder unrealistische Repräsentationen generiert. Um zu beurteilen, ob das Ergebnis plausibel ist, ist jetzt die Meinuung eines Experten gefragt. Bisher konnten nur Menschen diese Beurteilung vornehmen – ein enorm zeit- und kostenintensiver Vorgang.

Generator vs. Diskriminator

Diese Rolle übernimmt jetzt ein zweites Netzwerk, der Diskriminator. Er soll die generierten Bilder identifizieren und lernt zu unterscheiden, ob ein Bild ein Original ist oder ob es generiert wurde. Gelingt es ihm, ein generiertes Bild als solches zu identifizieren, muss der Generator optimiert werden: Er passt sein Modell dementsprechend an, denn er will möglichst wirklichkeitsnahe Farbfotos generieren. Gelingt es dem Generator, den Diskriminator zu täuschen, muss der Diskriminator weiterentwickelt werden, denn auch er will immer besser werden. Die beiden Netzwerke versuchen, sich gegenseitig auszuspielen und optimieren sich auf diese Weise immer weiter – solange, bis sie ein überzeugendes Ergebnis liefern.

Mit der Anwendung dieser generativen adversarialen Netzwerke erreichte die automatische Bildkolorierung ein ganz neues Level: Der Feedback-Prozess kann unendlich oft durchgeführt werden – das Ergebnis sind sehr viel realistischere Fotos. Das Modell lässt sich hier testen.

Automatisch ja, aber so wie ich es will: Kolorierung 2.0

Auch wenn das Ergebnis ein durchaus überzeugendes Niveau erreicht hat, für die Praxis spielt noch ein anderer Punkt eine entscheidende Rolle: Bei einer vollautomatischen Kolorierung hat der Nutzer keinerlei Möglichkeit, in den Prozess einzugreifen oder das Ergebnis zu lenken. Das ist jedoch nicht nur wichtig, um kleinere Fehler zu korrigieren – von einem Schwarz-Weiß-Foto können zahlreiche plausible Farbversionen generiert werden. Darauf haben Zhang und seine Kollegen reagiert: Kürzlich stellten sie die benutzergeführte Kolorierung vor – eine clevere Symbiose zwischen vollautomatischen Prozessen auf der Basis elaborierter Machine-Learning-Algorithmen und freier Farbwahl.

Das Fazit: iColor ist unkompliziert, präzise und schnell – ein intelligentes Tool, das in der nächsten Photoshop-Version nicht fehlen darf. Wer nicht so lange warten möchte, kann sich die Real-Time User-Guides Image Colorization bei Github runterladen.

Geben Sie es weiter: Save, Share, Like, Tweet

Teilen und kommentieren Sie diesen Artikel: Wir freuen uns über Ihre Meinung, Ihr Feedback und den Austausch mit Ihnen.

Diskussion

B2B Content Marketing Insights

Impulse für B2B-Marketing- & Strategie, -Konzept und -Technologie direkt ins Postfach