KI: Kleine Modelle, große Qualität, hohes Risiko?

bbcode-image


Ich habe mir Z-Image Turbo 6B einmal etwas angesehen und meine typischen Testbilder durchgejagt (bzw. eher darauf gewartet). Die Tests sind jetzt nicht groß ausgefeilt oder erzeugen irgendwelche wirklich messbaren Resultate außer Sekunden pro Bild. Ich hatte abends einfach etwas Zeit, Z-Image war noch sehr neu und ich habe SwarmUI gestartet, geupdatet und dann die größte GGUF heruntergeladen, weil selbst die größte Variante noch in den Speicher meiner alten GTX 1070 mit 8 GB VRAM passt. Ein Bild dauerte dann so um die 4–5 Minuten. Ich hatte keine Lust, noch auf dem Linux-Rechner mit der RTX 5060 Ti 16 GB zu testen, die dann bestimmt bei gut unter einer Minute gelegen hätte.

Die Qualität ist wirklich gut. Es steht in Qualität und Prompt-Verständnis Flux1, Hunyuan oder Qwen-Image in nichts nach und übertrifft diese teilweise sogar in meinen Versuchen. Es soll nicht zensiert sein, wobei ich da nicht wirklich etwas getestet habe—nur so viel, dass es mehr zulässt als Nano Banana in seinen ersten Ausführungen (was teilweise einfach lächerlich war, wenn man anstelle von „Zauberin“ „erwachsene Zauberin“ schreiben musste, weil der Prompt sonst als zu risikoreich eingestuft wurde). Beeindruckend ist auch die Geschwindigkeit und die geringe Größe des Modells. Zuletzt brauchten Bilder mit der GTX 1070 und modernen Modellen gerne mal bis zu 45 Minuten pro Bild. Mit Z-Image kann man nun sehr kostengünstig und lokal Bilder erstellen, ohne Geld für irgendwelche Cloud-Dienste ausgeben zu müssen oder auf zensierte Services von Meta.ai, OpenAI oder anderen bekannten Anbietern setzen zu müssen. Das bedeutet aber natürlich auch, dass diese Bilder ohne Wasserzeichen oder andere Markierungen erstellt werden können.

Sora-Videos waren zuerst wirklich gut zu erkennen, weil eben direkt im Video stand, dass sie damit erstellt wurden. So sah man schnell, welche Art und welche Styles so ein Video ausmachen, und man konnte Sora-Videos recht schnell auch ohne Markierung als solche erkennen. Natürlich nur für kurze Zeit, weil auch Sora immer besser wird und die Leute mit den Standard-Templates und Prompts irgendwann durch sind und selbst anfangen, damit zu experimentieren. Wenn es nach der EU geht, soll ab August 2026 jedes Werk, das mit Hilfe von KI erzeugt wurde, als solches gekennzeichnet sein, wenn es nicht sowieso schon als nicht real erkennbar ist. Ein Anime-Video wird also nicht gekennzeichnet werden müssen (was bestimmten Studios, die durch bestimmte Stile bekannt wurden, sicher auch nicht gefallen dürfte, um Fanarts eindeutig zu erkennen). Wenn alles über die großen Anbieter läuft, ist es nicht schwer, Markierungen in Bildern, Videos oder auch Musik unterzubringen. Privat kann man sich auch einen Workflow bauen, der so etwas einbringt. Aber die Personen, die bewusst etwas generieren, um Schaden oder Unsicherheit zu erzeugen, werden sich nicht daran halten. Sie hätten entweder die Marker wieder entfernt oder sich einen Service gesucht, der bewusst so etwas nicht einbaut (also China, Osteuropa, Asien… alles nicht EU). Jetzt geht es super auch zuhause, ohne viel Geld in Hardware investieren zu müssen.

Oft wird auch schon gesagt, dass wir nun in eine Zeit geraten, in der man Bildern und Videos generell nicht mehr glauben kann. Das sind wohl Leute, die die letzten 30 Jahre Photoshop verschlafen haben, denn man konnte schon lange keinem Bild mehr glauben und auch Videos waren schon vor AI nicht mehr allzu schwer zu manipulieren. Jetzt geht alles super einfach und super schnell. Im Internet konnte man also schon fast von Anfang an keinem Text oder Bild vertrauen, das man dort sah. Man musste die Quelle kennen, sonst musste man immer einen Restzweifel behalten.

Aber bringt es jetzt etwas, EU-Gesetze auf den Weg zu bringen, die an sich genau das machen wollen, womit man schon bei digital bearbeiteten Fotos gescheitert ist? Wie oft sollte es Marker für mit Photoshop bearbeitete Bilder geben, um Fakes oder zu sehr „aufgehübschte“ Bilder von Schauspielern und Models kenntlich zu machen? Oft – und nie haben sich mehr als eine Handvoll von Medienunternehmen (teilweise) daran gehalten. Diese Unternehmen konnten sagen, sie tun etwas für die Transparenz und den Schutz von Kindern und Menschen allgemein… meistens genau so lange, bis doch bei einem Foto etwas nachgeholfen wurde und sie dann „aus Versehen“ vergaßen, das Bild korrekt zu markieren.

Ich halte diese Gesetze nicht nur für nicht durchsetzbar, sondern auch für recht gefährlich, weil damit den Menschen suggeriert wird, es werde etwas gegen KI-Fakes getan und sie wären nun sicher davor und könnten diese immer erkennen. Aber da sich maximal die Unternehmen in der EU daran halten, ist das Fehlen eines Markers kein Indiz für die Echtheit. Man kann vielleicht einige Bilder und Videos eindeutig als KI-generiert erkennen, aber beim großen Rest kann man es immer noch nicht sicher sagen. Die markierten Bilder sind die, die auch vorher schon in den Bildunterschriften als solche geführt worden sind. Bilder, die eine Gefahr darstellen, werden weiterhin keine Marker erhalten und es ändert sich einfach nichts. Lieber sollte man sich die Energie sparen, um Modelle zu zensieren oder den Output mit Markern zu versehen, und akzeptieren, dass wir schon sehr bald in einer Zeit leben werden, in der es so gut wie unmöglich sein wird, die Echtheit eines Bildes oder Videos zu bestimmen, ohne dessen Kontext und Quelle zu kennen. Es ist auch nicht die Qualität allein, die noch steigt, sondern die Menge an hochqualitativem Output. Menschen müssen lernen, das, was sie lesen, sehen oder hören, selbst zu bewerten und nach gesundem Menschenverstand einer eigenen Risikobewertung zu unterziehen.

Es gibt auch Vorteile. Geleakte Nacktfotos kann man nicht mehr als wirklich echt identifizieren, weil es ja KI sein könnte. Es geht also in beide Richtungen. Man muss skeptisch sein und auch bleiben. Man muss hinterfragen und bewerten. Kein EU-Gesetz kann einem das abnehmen.
User annonyme 2026-01-13 21:26

Not able to write comment
Comments are disabled for this blog-entry.

Möchtest Du AdSense-Werbung erlauben und mir damit helfen die laufenden Kosten des Blogs tragen zu können?