- KI•POWERBOOST Newsletter - by Niklas Volland
- Posts
- Midjourney V7 ist da! 😎 | Neues Runway-Modell generiert Videos auf Hollywood-Niveau 🎬 | Metas neue KI-Modelle können besser sehen 👁️
Midjourney V7 ist da! 😎 | Neues Runway-Modell generiert Videos auf Hollywood-Niveau 🎬 | Metas neue KI-Modelle können besser sehen 👁️
🧠 Der KI-POWERBOOST von Niklas Volland

✨ Spotlight-Tool der Woche: Genspark AI Agent 🤖
- WERBUNG -
📌 Hauptmerkmale von Genspark:
👉 Interaktive Sparkpages statt Links 📄: Für jede deiner Suchanfragen erstellt Genspark eine maßgeschneiderte Seite mit Infos aus vertrauenswürdigen Quellen – klar strukturiert, direkt nutzbar.
👉 Integrierter KI-Copilot 🤖: Auf jeder Sparkpage begleitet dich ein KI-Assistent, mit dem du direkt weiterfragen und tiefer eintauchen kannst – wie in einem echten Gespräch.
👉 Werbefrei & qualitativ schlechten Suchergebnissen: Schluss mit Klickfallen und endlosen Werbebannern – Genspark filtert den Noise raus und liefert dir nur die Infos, die zählen.
👉 Super Agent für komplexe Recherchen 🧠⚡: Mit dem Genspark Super Agent kannst du sogar ganze Rechercheprojekte automatisieren. Gib ihm ein Ziel – z. B. „Finde die besten Anbieter für Solaranlagen in Europa“ – und er durchforstet das Web, analysiert Inhalte und präsentiert dir fundierte Ergebnisse in übersichtlichen Sparkpages.
🔍 Entdecke jetzt eine neue, KI-basierte Art der Suche mit Genspark – kostenlos und ohne Anmeldung: genspark.ai 🌟
🚨 Du willst KI Breaking-News als erstes bekommen? Komm in meinen kostenlosen What’s App Kanal
In meinem Whats-App Kanal “KI•POWERBOOST Updates“ erfährst du noch schneller von neuen KI-Tools, hochrelevanten KI-Breaking-News und inspirierenden Entdeckungen zur KI-Welt, die ich so mache. Dort informiere ich die Community immer als erstes. Bist du dabei? 👋
📰 KI-News
SPOTLIGHT

Bild generiert mit ChatGPT
🚀 Meta bringt mit Llama 4 eine neue Generation leistungsstarker KI-Modelle an den Start
Zusammenfassung: Meta hat zwei neue Open-Weight-Modelle namens Llama 4 Scout und Maverick veröffentlicht, weitere Modelle wie Behemoth und Llama 4 Reasoning sollen folgen. Ziel ist eine effizientere, multimodale KI-Architektur mit offenen Gewichten und verbesserten Lernmethoden.
Die Details im Überblick:
Llama 4 Scout nutzt 16 Experten mit insgesamt 109 Milliarden Parametern und kann mit nur einem H100-Grafikprozessor betrieben werden.
Llama 4 Maverick umfasst 128 Experten mit zusammen 400 Milliarden Parametern und ist für komplexere Aufgaben gedacht.
Behemoth, noch nicht veröffentlicht, soll mit 288 Milliarden Parametern ein Modell-Trainer der Superlative sein.
Die Modelle sind multimodal (Text und Bild) und nutzen eine "Mixture-of-Experts"-Architektur zur Effizienzsteigerung.
Meta hebt Verbesserungen bei Vision-Verarbeitung, Kontextlänge und Lernverfahren hervor – bei gleichzeitiger Reduzierung von Kosten und Bias.
Warum das wichtig ist:
Mit Llama 4 positioniert sich Meta erneut stark im Open-Source-KI-Bereich und will GPT-4.5 und Co. in Benchmarks übertreffen. Die offene und multimodale Struktur der Modelle könnte neue Maßstäbe für KI-Anwendungen in Forschung und Wirtschaft setzen.
🔗 mehr dazu hier

© Bild: Anthropic
🎓 Claude für Bildung: Anthropic bringt KI-Campuslösung an Universitäten
Zusammenfassung:
Mit Claude for Education startet Anthropic eine speziell auf Hochschulen zugeschnittene KI-Funktion, die Studierende, Lehrkräfte und Verwaltung gleichermaßen unterstützen soll. Im Fokus steht der verantwortungsvolle und kritische Umgang mit KI – inklusive eines neuen Lernmodus und weitreichenden Partnerschaften.
Die Details im Überblick:
Neuer Lernmodus: Claude hilft Studierenden mit Leitfragen und sokratischer Gesprächsführung beim eigenständigen Denken statt fertige Antworten zu liefern.
Campus-weite Integration: Erste Partnerschaften mit Northeastern University, LSE und Champlain College – Claude wird dort allen Studierenden zugänglich gemacht.
Programme für Studierende: Einführung eines Campus-Botschafter-Programms sowie API-Credits für eigene KI-Projekte.
Einsatzszenarien: Vom Verfassen wissenschaftlicher Arbeiten über Feedback auf Essays bis zur automatisierten Verwaltung – Claude unterstützt flexibel in Studium und Administration.
Branchenkooperationen: Zusammenarbeit mit Internet2 und Instructure (Canvas LMS), um KI nahtlos in bestehende Bildungssysteme zu integrieren.
Warum das wichtig ist:
Claude for Education markiert einen Meilenstein in der KI-basierten Hochschulbildung – mit dem Ziel, Kompetenzen im kritischen Denken zu fördern und KI auf breiter Basis zugänglich sowie verantwortungsvoll nutzbar zu machen.
🔗 mehr dazu hier

© Bild: Midjourney
Midjourney V7 ist da und bringt bessere Bilder, Personalisierung und Turbo-Entwürfe
Zusammenfassung:
Midjourney testet aktuell die Alpha-Version seines neuen Bildmodells V7 – mit verbessertem Prompt-Verständnis, personalisierten Vorlieben und einem neuen Entwurfsmodus für schnelle Bildideen.
Die Details im Überblick:
Verbesserte Bildqualität: V7 bietet realistischere Hände, Körper und Objekte sowie eine bessere Verarbeitung von Text- und Bildprompts.
Modellpersonalisierung: Nutzer können durch das Bewerten von 200 Bildpaaren ihr Modell auf individuelle Ästhetik-Vorlieben abstimmen.
Neuer Entwurfsmodus: Bilder werden zehnmal schneller und kostengünstiger generiert – ideal für kreative Ideenfindung.
Conversational Mode: Im Draft-Modus lassen sich Bilder per Spracheingabe live anpassen (z. B. Tier ändern, Tageszeit variieren).
Modi und Ausblick: V7 startet mit „Turbo“ und „Draft“, der Standardmodus folgt; neue Funktionen sollen alle zwei Wochen erscheinen.
Warum das wichtig ist:
Midjourney V7 setzt neue Maßstäbe in Sachen Individualisierung und Schnelligkeit bei der KI-Bildgenerierung. Besonders der neue Entwurfsmodus macht kreatives Arbeiten deutlich effizienter – mit Einfluss der Community auf die Weiterentwicklung.
🔗 mehr dazu hier
Runway Gen-4: KI-Videos mit durchgehender Handlung und konsistenten Figuren
Zusammenfassung:
Midjourney testet aktuell die Alpha-Version seines neuen Bildmodells V7 – mit verbessertem Prompt-Verständnis, personalisierten Vorlieben und einem neuen Entwurfsmodus für schnelle Bildideen.
Die Details im Überblick:
Verbesserte Bildqualität: V7 bietet realistischere Hände, Körper und Objekte sowie eine bessere Verarbeitung von Text- und Bildprompts.
Modellpersonalisierung: Nutzer können durch das Bewerten von 200 Bildpaaren ihr Modell auf individuelle Ästhetik-Vorlieben abstimmen.
Neuer Entwurfsmodus: Bilder werden zehnmal schneller und kostengünstiger generiert – ideal für kreative Ideenfindung.
Conversational Mode: Im Draft-Modus lassen sich Bilder per Spracheingabe live anpassen (z. B. Tier ändern, Tageszeit variieren).
Modi und Ausblick: V7 startet mit „Turbo“ und „Draft“, der Standardmodus folgt; neue Funktionen sollen alle zwei Wochen erscheinen.
Warum das wichtig ist:
Midjourney V7 setzt neue Maßstäbe in Sachen Individualisierung und Schnelligkeit bei der KI-Bildgenerierung. Besonders der neue Entwurfsmodus macht kreatives Arbeiten deutlich effizienter – mit Einfluss der Community auf die Weiterentwicklung.
🔗 mehr dazu hier
KOMPAKTÜBERBLICK
🤖 Amazon stellt KI-Agenten Nova Act für Web und Shopping vor
Amazon testet mit Nova Act einen smarten KI-Agenten, der Aufgaben im Browser übernimmt und Nutzer:innen beim Online-Shopping unterstützt. | mehr erfahren
🔄 OpenAI verschiebt GPT-5 zugunsten spezialisierterer KI-Modelle
Statt GPT-5 bringt OpenAI zunächst kleinere Reasoning-Modelle wie o3 und o4-mini, um gezielter Fähigkeiten zu verbessern. | mehr erfahren
📈 ChatGPT wächst weiter rasant und stößt an technische Grenzen
Mit 20 Millionen zahlenden Abonnenten kämpft OpenAI bei ChatGPT aktuell mit Kapazitätsengpässen trotz neuer Nutzerrekorde. | mehr erfahren
🎮 Microsoft zeigt KI-generiertes Quake II als Tech-Demo im Browser
Muse, Microsofts neues KI-Modell, erstellt eine vollständig spielbare Version von Quake II – komplett KI-generiert. | mehr erfahren
✨ KI-Inspiration der Woche: Wo wir in der KI-Videogenerierung stehen und warum Runway Gen-4 ein Mega-Fortschritt ist*
Stell dir vor, du beschreibst eine Filmszene – und eine KI verwandelt sie in ein echtes Video. Klingt wie Science-Fiction? Genau das ist schon länger möglich, und wird mit den aktuellen Modellen immer brauchbarer und salonfähiger. Die KI-Videogenerierung entwickelt sich rasant weiter und verändert schon heute die Art, wie wir Videos produzieren. Nach dem Boom von KI-Texten und KI-Bildern geht es jetzt in die nächste Dimension: bewegte Bilder per KI erschaffen. Diese Woche zeige ich dir, wo wir aktuell stehen – und warum das neue Modell Runway Gen-4 für so viel Aufsehen sorgt.
Was bisher möglich war – und wo die Grenzen lagen
Die Idee hinter KI-generierten Videos ist simpel, die Umsetzung aber enorm komplex: Statt ein einzelnes Bild zu erzeugen (wie z. B. bei Midjourney), muss die KI gleich Dutzende oder Hunderte Bilder pro Sekunde erzeugen, die alle nahtlos zusammenpassen. Bis vor Kurzem war das vor allem eines: holprig. Modelle wie Runway Gen-2 konnten zwar kurze Clips erzeugen, aber Gesichter sahen oft künstlich aus, Bewegungen waren unnatürlich und Charaktere veränderten sich mitten im Clip. Das lag daran, dass die KI zwar gelernt hatte, wie einzelne Bilder aussehen, aber noch keine Vorstellung davon hatte, wie sich Menschen, Objekte oder Licht über Zeit hinweg verhalten.
Wusstest du zum Beispiel, dass Runway Gen-2 mit über 240 Millionen Bildern und 6,4 Millionen Videoclips trainiert wurde? Trotzdem produzierte es manchmal seltsame Ergebnisse: Menschen mit verschmelzenden Körperteilen, Gegenstände, die verschwanden, oder Clips, die plötzlich in eine ganz andere Richtung abdrifteten. Die physikalische Logik und Kontinuität – also dass sich z. B. ein Objekt nicht aus dem Nichts teleportiert – war oft nicht gegeben. Diese Probleme zeigen, wie schwer es ist, nicht nur visuell schöne, sondern kohärente Geschichten in Videoform mit KI zu erzeugen.
Was Runway Gen-4 so besonders macht
Mit Runway Gen-4 kommt jetzt ein echter Gamechanger. Das Modell sorgt erstmals für wirklich realistische, konsistente Videos. Du kannst ein Referenzbild hochladen – zum Beispiel von einer Person – und dann beschreiben, was diese Person tun soll. Das Ergebnis? Ein Video, in dem dieselbe Person glaubwürdig in verschiedenen Szenen auftaucht, mit passenden Bewegungen, Licht, Schatten und sogar Emotionen. Das war vorher nicht möglich.
Runway Gen-4 erzeugt nicht nur flüssigere Bewegungen, sondern behält auch das Aussehen von Figuren über mehrere Einstellungen hinweg bei – ein riesiger Fortschritt. In ersten Beispielen wurden sogar komplette Musikvideos und Kurzfilme mit Gen-4 erstellt. Egal ob stilisiert oder fotorealistisch – das Modell liefert beeindruckende Ergebnisse. Sogar Hollywood ist auf den Zug aufgesprungen und plant erste KI-Filmprojekte mit der Technologie. Die Vision: Eine kreative Idee reicht – den Rest übernimmt die KI.
Wohin die Reise geht – dein Ausblick auf die KI-Zukunft
Du fragst dich, wie es weitergeht? Gute Frage! In den nächsten ein bis zwei Jahren dürften KI-Modelle noch längere und schärfere Videos produzieren – mit stabiler Bildrate und weniger Fehlern. Denk mal drüber nach: Kurzfilme auf Knopfdruck, individuell erzeugte Social-Media-Videos, animierte Präsentationen, oder sogar Videospiel-Sequenzen, die on the fly generiert werden. All das ist keine Zukunftsmusik mehr – es wird gerade Realität.
Klar, noch dauert das Rendern solcher Videos eine Weile, und Echtzeit-Gaming ist mit der Technik heute noch nicht möglich. Aber wenn sich die Rechenleistung verbessert (und das wird sie), könnten Spiele in Zukunft Szenen dynamisch erzeugen – je nachdem, wie du spielst. Auch im Marketing und in der Bildung werden KI-Videos bald eine noch viel größere Rolle spielen. Stell dir einfach vor, du erklärst einem KI-Tool: „Mach mir ein Video über nachhaltige Energie für 12-Jährige“ – und ein paar Minuten später hast du genau das. Die kreative Freiheit wird riesig – und du brauchst keine Filmcrew mehr.
Fazit: Jetzt ist der perfekte Zeitpunkt, um KI-Videogenerierung zu entdecken
Wenn du kreativ arbeitest, Videos produzierst oder einfach neugierig bist: Jetzt ist die Zeit, dich mit KI-Videos zu beschäftigen. Die Tools sind da, sie werden immer besser – und mit Modellen wie Runway Gen-4 wird klar, dass diese Technologie nicht mehr nur ein Hype ist. Sie ist gekommen, um zu bleiben. Und wer früh einsteigt, kann enorm profitieren – egal ob als Kreativer, Unternehmer oder Visionär. Die Zukunft der Videoproduktion beginnt jetzt – und du kannst dabei sein.
Mein Tipp: Schau dir neben Runway gerne auch mal die weiten Top KI-Videogeneratoren KlingAI, OpenAIs Sora, Minimax (komplett kostenlos nutzbar), Google Veo 2 (in Deutschland über Freepik nutzbar), Luma Dream Machine und Pikas Videogenerator an.
Quellen:
https://runwayml.com/research/introducing-runway-gen-4
https://runwayml.com/research/gen-2
https://www.wired.com/story/lionsgates-new-deal-is-a-test-of-hollywoods-relationship-with-ai
https://www.theverge.com/news/640821/runway-gen-4-artificial-intelligence-video-generator-filmmaking
https://runwayml.com/gen-4-bts
*KI-Kennzeichnung: Der Artikel wurde mit der Hilfe von ChatGPT Deep-Research erstellt.
🎧 Neue Podcast-Folgen

Wie KI dich dumm macht, KI als gerechter Politiker & Geld verdienen mit KI: Hype oder Realität? 🤯
In dieser Folge sprechen Maxi und ich über den Einfluss von KI auf unseren Alltag, persönliche Entwicklungen und gesellschaftliche Veränderungen.
🔍 Alltagsintegration: Wir diskutieren, wie KI unseren Alltag beeinflusst und in welche Lebensbereiche sie bereits vorgedrungen ist.
🧠 Persönlichkeit & Selbstbild: Wir sprechen darüber, wie KI unsere Persönlichkeit formen oder unser Selbstbild verändern kann.
💬 Zuhörerfragen: Wir beantworten kreative Fragen aus der Community rund um KI und ihre Potenziale.
💸 Geld verdienen mit KI: Wir beleuchten verschiedene Möglichkeiten, wie man mithilfe von KI ein Einkommen generieren kann.
🏛️ KI in der Politik: Wir diskutieren die Rolle von Künstlicher Intelligenz in politischen Entscheidungsprozessen und ihre gesellschaftliche Wirkung.
Top Anwendungsfälle für neue ChatGPT Bildgenerierung, nächstes Midjourney-Modell ist da, Runway Video-Generator bringt Version 4 - war's das mit Hollywood? 😳
In dieser Folge sprechen Maxi und ich über die neuesten Entwicklungen in der KI-Bildgenerierung, die rasante Evolution von KI-Technologie und ihren möglichen Einfluss auf die Kreativbranche und Websuche.
🧠 ChatGPT 4o & Bildgenerierung: Wir analysieren die Fortschritte von ChatGPT 4o in der Bildgenerierung und was das für Kreativität und Urheberrecht bedeutet.
⚔️ Marktdynamik & Konkurrenz: Wir werfen einen Blick auf den Wettbewerb zwischen Bild-KI-Anbietern und wie sich der Markt gerade neu sortiert.
🚀 Zukunft der KI-Technologie: Wir diskutieren, ob wir vor einem neuen „KI-Sommer“ stehen und was das für Innovation und Anwendung bedeutet.
🎬 Runway, Kling.ai & realistische Videos: Wir sprechen über beeindruckende Fortschritte in der Videogenerierung und die aktuellen technischen Herausforderungen.
🌐 KI-Agenten & Websuche: Wir überlegen, wie KI-Agenten die Art verändern könnten, wie wir Informationen im Netz finden und nutzen.
🎭 KI in der Unterhaltung: Wir beleuchten das Potenzial von KI in der Entertainment-Branche – von Filmen bis zu interaktiven Inhalten.
🛠️ KI-Toolbox
SPOTLIGHT
Ideogram 3.0 | Ideogram hebt die Bildgenerierung mit KI auf ein neues Level – besonders wenn es um die Integration von realistischer Typografie geht. Mit der Version 3.0 erzeugt das Tool nicht nur fotorealistische Bilder und kreative Illustrationen, sondern kann jetzt noch präziser Texte direkt ins Bild integrieren – ein Durchbruch für Branding, Werbung und Content Creation. Die neue Version überzeugt mit höherer Auflösung, besserem Prompt-Verständnis und einer schnelleren Engine. Einfach ausprobieren und staunen! | Zum Tool
WEITERE TOOL-EMPFEHLUNGEN
Motion 🧠 – KI-gestützter Kalender, der deine To-dos automatisch einplant und deinen Tag produktiver macht. | Zum Tool
Lovable.dev 💻 – Ein KI-Tool, das es ermöglicht, vollständige Webanwendungen allein durch textuelle Beschreibungen zu erstellen, inklusive Frontend- und Backend-Funktionalitäten - keine Programmierkenntnisse notwendig. | Zum Tool
Dora AI ✨ – Baue per Prompt professionelle, responsive Websites in Sekundenschnelle – ganz ohne Code. | Zum Tool
Das war’s wieder für diese Woche, wenn du den Newsletter als hilfreich empfindest, freu’ ich mich, wenn du ihn an weitere interessierte Personen weiterleitest.
🔗 Hier kann ihn jeder abonnieren. Bis zur nächsten Ausgabe! 👋