Die App Lensa gibt es bereits seit 2018. Zu großer Popularität kam sie aber erst innerhalb der letzten Wochen, vor allem durch Social Media. Sie ist aktuell eine der am häufigsten heruntergeladenen Apps. Aber worum geht es genau?

So funktioniert Lensa

In der App können Fotos hochgeladen werden. Daraus macht eine Künstliche Intelligenz dann Bilder, die an Kunstwerke erinnern. Aus den 15 bis 20 hochgeladenen Fotos spuckt die KI Bilder in verschiedenen Stilen aus, die der Person auf den ursprünglichen Fotos mal mehr und mal weniger ähneln. Die Ergebnisse lassen sich dann in den Sozialen Medien teilen.

Das klingt erstmal harmlos, doch die kreative App bringt einige Probleme mit sich.

Geklaute Kreativität

Die Fotos, die Lensa ausspuckt, basieren auf der Arbeit echter Künstler*innen. Stable Diffusion heißt das Deep Learning Programm, das hinter Lensa steht. Es wurde mit realen, von Menschen geschaffenen Kunstwerken gefüttert.

Die KI schafft also nicht selbst Kunst. Sie lernt dadurch, dass sie mit möglichst vielen Daten gefüttert wird, Kunst zu imitieren. Im Falle von Stable Diffusion handelt es sich um fast 6 Milliarden Bilder.

Hier wird also nichts Neues geschaffen. Lensa oder besser Prisma Labs, die Firma, die hinter der App steht, hat keine Rechte an den ursprünglich verwendeten Kunstwerken. Sie muss demnach die Künstler*innen nicht bezahlen und tut das natürlich auch nicht. Viele Künstler*innen machen im Netz auf dieses Problem aufmerksam. Verständlich, denn sie haben keine Einwilligung gegeben, dass ihre Bilder verwendet werden dürfen.

Stable Diffusion ist eine Open-Source-Anwendung. Das heißt, Lensa bietet lediglich die Bedienoberfläche zur Nutzung des Programms. Es werden also bereits existierende Bilder zu einem neuen Bild zusammengesetzt.

Nicht alle diese ursprünglichen Bilder sind Kunstwerke. Eine Frau fand Fotos von sich, die nur für medizinische Zwecke gemacht wurden. Über die Webseite "Have I been trained" kann jede*r nachprüfen, ob die eigenen Fotos zum Training einer KI benutzt wurde.

Ein happiges Abo-Model

Zwar ist Lensa kostenlos, aber für verschiedene Funktionen muss ein Jahresabo abgeschlossen werden. Mit 50 Euro schlägt das ganz schön zu Buche. Soll zum Beispiel ein Avatar-Foto erstellt werden, wie es gerade häufig in den Sozialen Medien zu sehen ist, müssen nochmal ein paar extra Euros bezahlt werden.

Sexualisierte und idealisierte Darstellung

Vor allem weibliche User*innen der App haben sich darüber beschwert, dass die KI sie sehr sexualisiert darstellt. Wenn man sich beispielsweise die Bilder der Autorin Laura Gehlhaar anschaut, die sie auch auf Instagram gepostet hat, sieht man auf den ersten Blick das Problem.

Liest man dann noch den Text unter ihrem Posting, wird klar, dass es noch weitere Probleme gibt. Außerhalb der schönen-KI-Welt sitzt Laura Gehlhaar nämlich im Rollstuhl. Der ist aber auf keinem der Fotos zu sehen. Laut eigenen Angaben hat sie aber nur Ganzkörper-Fotos benutzt, auf denen ihr Rollstuhl klar zu sehen ist.

 

Ist die App also sexistisch und diskriminierend? Mit etwas Abstand fällt auf: Es liegt vor allem an den Daten, mit denen die Künstliche Intelligenz gefüttert wird. Damit hält Lensa also unserer Gesellschaft den Spiegel vor. Sie reflektiert nur das, was in unserer Gesellschaft als schön oder erstrebenswert gilt, frei nach dem Motto: Sex sells.

KIs an und für sich sind nicht sexistisch, rassistisch oder anderweitig diskriminierend. Das Problem ist, dass die Daten, mit denen sie gefüttert werden, ihnen beibringen, rassistisch zu sein. Gerade bei App-Hypes kommt diese Thematik immer wieder hoch. Viel zu oft wird dieses Problem aber einfach den KIs untergeschoben, statt es zu breiter gesellschaftlich zu diskutieren.

Ein tieferliegendes Problem

Lensa ist die aktuellste App im Bereich Machine Learning und KI-Anwendungen. Das Problem an diesem Hype ist, dass es so einfach sein kann, diese Art von Bildern herzustellen. Viele benutzen die App gedankenlos, weil es jede*r gerade macht.

Problematisch ist, dass sich keine Firma verantwortlich fühlt. Prisma Labs sieht sich nicht in der Verantwortung, weil sie auf das Datenset von Stable Diffusion zurückgreifen. Stable Diffusion fühlt sich nicht in der Verantwortung, weil das Unternehmen die Bilder nicht besitzt, sondern lediglich die Links zu den Bildern aus dem Netz fischt.

Wenn die Firmen hinter den Anwendungen schon keine Verantwortung übernehmen, müssen mal wieder wir als Konsument*innen ran – und uns gut überlegen, ob und wie wir solche Angebote nutzen.