Die Entwicklung und Anwendung von generativen KI-Modellen
Entwicklungen im Bereich AI, KI und LLM
Die aktuellen Trands bieten Marketingverantwortlichen und Werbetreibenden vielfältige Ansatzpunkte – von Effizienzsteigerung und Kostenreduktion bis hin zu neuen Erlösmodellen und Zielgruppenerweiterung. Zugleich sind Investitionen in Governance‑Strukturen, ethische Leitlinien und Qualitätssicherung essenziell, um das volle Potenzial der Technologien verantwortungsbewusst auszuschöpfen.
Kernbegriffe der KI‑ und LLM‑Welt
| AI / KI (Artificial Intelligence, Künstliche Intelligenz) | Sammelbegriff für Verfahren, die Aufgaben lösen, die menschliche Intelligenz erfordern. |
| Generative AI | KI, die neue Inhalte (Text, Bild, Audio, Code) erschafft statt nur zu analysieren. |
| Deep Learning (DL) | ML‑Ansatz mit tiefen neuronalen Netzen; treibt Bild‑, Sprach‑ und Text‑Anwendungen. |
| Machine Learning (ML) | Teilgebiet der KI, bei dem Systeme Muster in Daten erkennen und daraus lernen. |
| Large Language Model (LLM) | Sehr großes Transformer‑Sprachmodell (z. B. GPT‑4, Llama 3) mit Milliarden Parametern. |
| Reasoning | Fähigkeit eines Modells, logische Schlussfolgerungen oder mehrstufige Ableitungen durchzuführen. |
| Alignment | Abstimmung von KI‑Verhalten auf menschliche Werte, Ziele und rechtliche Vorgaben. |
| Embeddings | kontinuierliche Vektorrepräsentationen von Text, Bildern oder anderen Daten, in denen semantisch ähnliche Objekte im Vektorraum nahe beieinander liegen und so Beziehungen und Bedeutungsähnlichkeiten quantifizierbar werden |
| Transformer | Architektur mit Self‑Attention, die LLMs und viele Vision‑Modelle antreibt. |
| Self‑Attention | Mechanismus, mit dem ein Modell innerhalb einer Sequenz relevante Zusammenhänge gewichtet. |
| Bias | Systematische Verzerrung in Daten/Modell, die zu unfairen Ergebnissen führt. |
| Prompt Engineering | Gestaltung der Eingabe (Prompt), um das gewünschte Modellverhalten präzise zu erzielen. |
| Token | Kleinste Verarbeitungseinheit (Wortteil) für Sprachmodelle; bestimmt Kontextlänge & Kosten. |
| Parameter | in einer KI die während des Trainings optimierten numerischen Gewichtungen und Bias-Werte, die das Verhalten und die Entscheidungen des Modells determinieren |
| Fine‑Tuning | Nachtraining eines vortrainierten Modells auf spezifischen Daten zur Anpassung an Fachaufgaben. |
| Hallucination | Faktisch falsche, aber plausibel formulierte Ausgabe eines generativen Modells. |
| Reinforcement Learning from Human Feedback (RLHF) | Verfeinerung von Modellen durch menschliche Bewertungen von Antworten, um Qualität & Sicherheit zu erhöhen. |
| Retrieval‑Augmented Generation (RAG) | Kombiniert LLM mit Such‑/Vektordatenbank, um aktuelle oder faktenbasierte Antworten zu liefern. |
| Zero‑/Few‑Shot Learning | Lösen neuer Aufgaben ohne Beispiele (zero) bzw. mit wenigen Beispielen (few). |
| Inference | der Vorgang, bei dem ein bereits trainiertes Modell neue Eingabedaten verarbeitet, um darauf basierend Vorhersagen, Klassifikationen oder generierte Ausgaben zu erzeugen |
| MCP (Multi-Agent Control Protocol) | offener Standard, der KI-Systemen eine einheitliche, modelunabhängige Schnittstelle bietet, um sicher und bidirektional auf externe Tools, Datenquellen und Dienste zuzugreifen |
| Guardrails | vorab definierte Beschränkungen, Richtlinien und technische Sicherheitsmechanismen, die unerwünschte oder schädliche Verhaltensweisen von KI-Systemen verhindern und so deren vertrauenswürdige, transparente und sichere Nutzung gewährleisten |
| RAG (Retrieval-Augmented Generation) | bezeichnet einen Ansatz, bei dem ein KI-Sprachmodell seine Antworten durch gezielten Zugriff auf externe Wissensdatenbanken oder Dokumentensammlungen anreichert, um relevantere und aktuellere Informationen zu liefern |
Im Medien- und Marketingumfeld lassen sich derzeit vor allem folgende übergreifenden KI‑Trends feststellen:
1. Konversations‑ und immersive Erlebnisse
– Chatbots & interaktive Interfaces: Verlage integrieren immer häufiger KI‑Chatbots, die auf umfangreiche Archivdaten zugreifen und in natürlicher Sprache mit Nutzern kommunizieren.
– Audio‑Transformation: KI‑gestützte Sprachsynthese wandelt Artikel automatisch in Audio um – 75 % der Verlage planen, Text‑zu‑Audio‑Funktionen einzusetzen, um Hör‑ und Lesepublikum zugleich zu erreichen.
2. Generative Inhalte & Skalierung
– Automatisierte Textproduktion: Einige Titel wie Il Foglio haben zeitweise komplette Ausgaben von KI schreiben lassen und so Reichweite und Verkaufszahlen gesteigert.
– Newsletter‑Expansion: Lokale Anbieter wie Patch nutzen KI, um ihre Newsletter blitzschnell auf Zehntausende Orte auszudehnen, ohne die Personalstärke proportional zu erhöhen.
3. Personalisierung & Empfehlungssysteme
– Hyper‑Personalisierung: 80 % der Publisher setzen 2025 KI für personalisierte Empfehlungen ein, 77 % für Content‑Creation, 73 % für Newsgathering, 65 % zur Übersetzung und 56 % für Chatbots.
– Dynamische Formatwahl: Von Audio‑Zusammenfassungen (75 %) bis zu KI‑Übersetzungen (65 %) wird der Content kanal‑ und zielgruppenspezifisch aufbereitet.
4. Werbung & Monetarisierung
– Native Ads in KI‑Chats: Startups wie Nexad integrieren kontextuelle Werbeeinblendungen direkt in KI‑Chat‑Sitzungen und erzielen so höhere Klick‑ und Kauf‑Raten.
– Automatisierte Kampagnenoptimierung: KI‑Tools analysieren in Echtzeit Nutzer‑Inputs und passen Werbeformate (z. B. Pay‑per‑Click) dynamisch an.
5. Barrierefreiheit & Lokalisierung
– Automatische Untertitel & Audio‑Descriptions: KI erzeugt Live‑Captions für Videos und alternative Texte (Alt‑Text) für Bilder, um Inhalte auch für Menschen mit Seh‑ oder Hörbehinderungen zugänglich zu machen.
– Globalisierung von Inhalten: Multilinguale KI‑Übersetzungen ermöglichen Echtzeit‑Lokalisierung von News und Features.
6. Vertrauen, Transparenz & Ethik
– Offenlegungspflichten: Verbraucher erwarten klare Hinweise darauf, welche Inhalte von KI erstellt oder bearbeitet wurden – Verlage publizieren zunehmend Richtlinien zur KI‑Nutzung.
– Qualitätskontrolle: Trotz beeindruckender Fähigkeiten fehlen KI oft kritisches Faktenwissen und eigenständige Quellennachweise, weshalb Redaktionen menschliche Kontrolle beibehalten.
Voraussetzungen und Aufgaben
| 1. Strategische Verankerung | • Klare Geschäftsziele (Umsatz‑, Reichweiten‑, Effizienz‑ oder Qualitätsziele) | • AI‑Roadmap an Unternehmensstrategie koppeln |
| • Vorstand / C‑Level‑Sponsor | • Governance‑Gremium mit Redaktions‑, Tech‑ und Legal‑Vertretern etablieren | |
| 2. Datenbasis & Rechte | • Zentraler Content‑Katalog inkl. Metadaten, Rechteketten, Lizenzen | • Media‑Asset‑Management (MAM) modernisieren |
| • Hohe Datenqualität, DSGVO‑ & Urheber‑Compliance | • Rechte- & Quellen‑Tagging automatisieren | |
| 3. Technische Infrastruktur | • Skalierbare Cloud‑ oder Hybrid‑Compute (GPU/TPU) | • Containerisiertes Deployment (Kubernetes) |
| • APIs zu LLM‑/Vision‑Services, MLOps‑Pipeline | • CI/CD‑Pipeline für Modelle einführen | |
| 4. Talente & Kompetenzen | • Data‑/ML‑Engineers, Prompt‑Engineers, Produkt‑Owner, KI‑Product‑Designer | • Upskilling‑Programme, interne AI‑Academy |
| • AI‑Literacy in Redaktion & Sales | • Cross‑funktionale Squads (Redaktion + Tech) | |
| 5. Kultur & Change‑Management | • Experimentier‑ und Fehlerkultur („Beta ist okay“) | • Schnelle MVP‑Zyklen (4‑8 Wochen) |
| • Transparente Kommunikation zu Rollen‑ & Workflow‑Änderungen | • Change‑Champions in jeder Fachabteilung | |
| 6. Ethik, Sicherheit & Qualität | • Richtlinien für Fairness, Erklärbarkeit, Kennzeichnung („AI‑generated“) | • Ethik‑Board, regelmäßige Bias‑Reviews |
| • Auditing & Human‑in‑the‑Loop | • Redaktionsleitfaden „Wie & wann KI einsetzen?“ | |
| 7. Partner‑ & Vendor‑Ökosystem | • Vertrauenswürdige SaaS‑Anbieter (OpenAI, Anthropic, Aleph Alpha …) | • Vendor‑Due‑Diligence (Security, IP‑Klauseln) |
| • Open‑Source‑Optionen (LLaMA 2, Mistral) für On‑Prem‑Use‑Cases | • Strategische Pilotpartnerschaften mit Start‑ups | |
| 8. Wirtschaftlichkeit & KPIs | • Klares ROI‑Framework (z. B. Kosten/Artikel, Abo‑Uplift, neue Werbeerlöse) | • OKR‑basierte Zielsysteme |
| • Controlling‑Dashboard für Modelle | • Regelmäßige Nachkalkulation & Priorisierung |
Wesentliche Änderungen & Trends (Update zu April 2025)
Aufstieg der Reasoning-Modelle (o1, R1): Der Fokus hat sich von reiner Textgenerierung ("Next Token Prediction") hin zu "System 2 Thinking" verschoben. Modelle wie OpenAI o1 oder DeepSeek R1 nehmen sich Zeit zum "Nachdenken" (Chain of Thought), bevor sie antworten. Dies reduziert Fehler in Mathematik und Programmierung drastisch.
Neue relevante Anbieter:
- xAI (Grok): Wurde in die Liste aufgenommen, da es durch die Integration in X und den Zugang zum massiven Rechencluster (Colossus) bis Ende 2025 zu einem Top-Tier-Player geworden ist.
- Alibaba (Qwen): Hat sich im Open-Source-Bereich neben Llama als Standard für Coding-Aufgaben etabliert.
Agentic Workflows ("Computer Use"): Modelle wie Claude 3.5/4 (Anthropic) und Microsoft Copilot gehen dazu über, nicht nur Text auszugeben, sondern aktiv Computer zu bedienen (Mauszeiger bewegen, tippen, durch Tabs navigieren), um komplexe Aufgaben autonom zu lösen.
Multimodalität als Standard: Reine Text-Modelle sterben aus. Fast alle Top-Modelle (Llama 3.2, Gemini, GPT-4o/5) verstehen und generieren nun nativ Bilder und teilweise Audio.
Stand: 08.12.2025
| Anbieter / Framework | Modell / Familie | Hersteller | Kurzprofil | Release-Stand (Highlight) | Kernfeatures & typische Use‑Cases |
| OpenAI o1 & GPT-5 | o1 (Preview/Pro) & GPT-5 (Orion) | OpenAI | Fokus auf „System 2 Thinking“ (Logik) & Next-Gen Generalist | Sep 2024 (o1-Preview) / Nov 2025 (GPT-5 Release) | Reasoning & Agents: o1 denkt vor dem Antworten („Chain of Thought“); GPT-5 als massives multimodales Backend. Use-Cases: Komplexe Mathematik, Coding-Architektur, wissenschaftliche Forschung, autonome Agenten. |
| Claude 3.5 / 4 | Claude 3.5 (Sonnet/Haiku) & Claude 4 (Opus) | Anthropic | Führend in Coding & Nuancen; „Computer Use“ Fähigkeit | Juni 2024 (3.5 Sonnet) / Okt 2025 (Claude 4) | Computer Use & Artefacts: Kann Desktop-Apps steuern; extrem langes Kontext-Gedächtnis; sehr natürliche Sprache. Use-Cases: Coding-Assistent, UI-Steuerung, komplexe Textanalyse. |
| Gemini 2.0 / 2.5 | Gemini 2.0 Flash / Pro / Ultra | Google DeepMind | Nativ Multimodal, tief in Google Workspace integriert | Dez 2024 (2.0) / Mitte 2025 (2.5 Iterationen) | Context & Speed: 2M+ Token Kontext; Audio/Video-Input in Echtzeit; Grounding über Google Search. Use-Cases: Video-Analyse, riesige Dokumentenmengen (RAG), Workspace-Automatisierung. |
| Llama 3.2 / 4 | Llama 3.2 Vision & Llama 4 | Meta | Der Open-Weight Standard (kommerziell nutzbar) | Sep 2024 (3.2 Vision) / Juli 2025 (Llama 4) | Open Weights & Vision: Llama 3.2 brachte Vision auf Edge-Geräte; Llama 4 konkurriert mit GPT-5. Use-Cases: On-Premise Hosting, Datenschutz-sensible Anwendungen, Fine-Tuning. |
| Grok 3 | Grok-2 / Grok-3 | xAI | „Truth-seeking“ LLM mit Echtzeit-Zugriff auf X (Twitter) | Aug 2024 (Grok-2) / Ende 2025 (Grok-3) | Real-Time & Unfiltered: Direkter Zugriff auf X-Feeds; weniger Restriktionen („Woke-Virus“ Gegenentwurf); starke Bildgenerierung (Flux-Integration). Use-Cases: Echtzeit-News-Analyse, kontroverse Themen, Social Media Bots. |
| Qwen 2.5 / 3 | Qwen-Coder / Qwen-Math | Alibaba Cloud | Führendes chinesisches Open-Source Modell (stark in MINT) | Sep 2024 (Qwen 2.5) / Q3 2025 (Qwen 3) | Coding & Math: Schlägt in Benchmarks oft Llama und GPT-4o bei Programmierung und Mathematik. Apache 2.0 Lizenz. Use-Cases: Kosteneffiziente Code-Generierung, mathematische Beweise, technische Dokumentation. |
| Mistral / Pixtral | Mistral Large 2 & Pixtral | Mistral AI | Europas Champion; Fokus auf Effizienz und Edge | Juli 2024 (Large 2) / Sep 2024 (Pixtral) | Vision & Efficiency: Pixtral verarbeitet Bilder nativ; Mistral Large 2 bietet GPT-4-Level Code-Leistung bei geringerem Preis. Use-Cases: Europäische Compliance (DSGVO), Edge-Vision-Anwendungen. |
| DeepSeek-V3 / R1 | DeepSeek-V3 / R1 (Reasoning) | DeepSeek AI | Preisbrecher aus China; Open Source | März 2025 (V3/R1) | MoE & Cost: Mixture-of-Experts Architektur macht API extrem günstig; R1 ist auf Reasoning optimiert. Use-Cases: Massenverarbeitung von Daten, Budget-sensible Anwendungen, akademische Forschung. |
| Command R+ / A | Command R+ / A | Cohere | Enterprise-Fokus; optimiert für RAG (Retrieval Augmented Generation) | April 2024 (R+) / Jan 2025 (Command A) | Enterprise RAG: Spezialisiert auf das Zitieren von Quellen und Verarbeiten von Unternehmensdaten ohne Halluzinationen. Use-Cases: Firmen-Wissensdatenbanken, Kundensupport-Bots, rechtliche Analyse. |
| Microsoft Copilot | Copilot (Wave 2) | Microsoft | Orchestrierung von GPT-4o, o1 und Phi-Modellen | Laufende Updates (Wave 2: Ende 2024/2025) | Agentic Workflow: Übergang vom Chatbot zum autonomen Agenten, der in Excel, PPT und Word Aufgaben erledigt. Use-Cases: Erstellung ganzer Präsentationen, Analyse komplexer Excel-Sheets, Meeting-Moderation. |
| Phi-3.5 / 4 | Phi-3.5 (Mini/Vision) / Phi-4 | Microsoft | SLM (Small Language Models) für lokale Ausführung | Aug 2024 (3.5) / Mitte 2025 (Phi-4) | On-Device: Läuft lokal auf Laptops/Handys; hohe Qualität trotz geringer Parameterzahl. Use-Cases: Offline-Apps, Datenschutz-kritische lokale Assistenten, IoT. |
Marktübersicht
Diese zehn Modellfamilien dominieren derzeit den Markt – entweder wegen ihrer Leistungsführerschaft (GPT‑4o, Claude 3), wegen spezieller Stärken wie extrem langer Kontext‑Fenster (Gemini 2.5 Pro) oder wegen offener Lizenzen und Kosteneffizienz (Llama 3, Mixtral 8×22B, Phi‑3). Die Wahl eines Modells hängt von Use‑Case, Budget, Datenschutzanforderungen und On‑Prem‑vs‑Cloud‑Strategie ab.
Aktuell gängigste KI‑/LLM‑Modelle (Stand April 2025)
| Anbieter / FrameworkModell / Familie | Hersteller | Kurzprofil | Release-Stand | Kernfeatures & typische Use‑Cases |
| GPT‑4o | OpenAI | Multimodal (Text + Bild + Audio); Standard‑ChatGPT‑Backend | Mai 2024 (öffentliches API‑Release GPT‑4o) | Multimodal; 128k Kontext; Code‑ & Reasoning‑stark; Use‑Cases: Redaktionelle Assistenten, Audio/Video‑Kurzfassungen |
| Claude 3 (Opus/Sonnet/Haiku) | Anthropic | Drei Preis‑/Leistungsstufen; 200 k Kontext, starkes Reasoning | März 2024 (Claude 3‑Familie) | Bis 200k Kontext; hohe Sicherheit; Tool‑Calling; Use‑Cases: Recherche‑Bots, Compliance‑Q&A |
| Gemini 2.5 Pro | Google DeepMind | Multimodal, Millionen‑Kontextfenster; treibt Gemini Advanced | Feb 2025 (Gemini 2.5 Pro GA) | Million+ Kontext; Google‑Suche‑Anbindung; Use‑Cases: Rich‑Media‑Content, Workspace‑Automatisierung |
| Llama 3 / 3.1 (8 B – 405 B) | Meta | Open‑Source‑Familie mit kommerzieller Lizenz | April 2024 (Llama 3 8B/70B OSS) / Okt 2024 (3.1) | Open‑Source; 8B/70B; Deutsch gut; Use‑Cases: On‑Prem‑Summaries, Chat‑Bots, Feintuning |
| Mistral Large | Mistral AI | 131 k Kontext, API & Azure‑Hosting | Feb 2024 (Public Preview) | Hohe Faktentreue; 131k Kontext; Use‑Cases: News‑Summaries, RAG‑Pipelines |
| Mixtral 8×22B | Mistral AI (Open Source) | Sparse‑MoE‑Architektur; Top‑Open‑LLM | Dez 2024 (Open‑Source Release) | Sparse Mixture‑of‑Experts; skalierbar; Use‑Cases: Massen‑Content, Übersetzungen |
| Command A | Cohere | Enterprise‑LLM, Private/On‑Prem‑Deployments | Jan 2025 (Command A GA) | Enterprise‑Privacy; Retrieval; Use‑Cases: Kundensupport, Wissensdatenbanken |
| Titan Text G1 | AWS | Bedrock‑Service für skalierbare Generierung & RAG | Nov 2023 (re:Invent Preview) / Apr 2024 GA | AWS‑Integration; Guardrails; Use‑Cases: Mediatheks‑Chats, Recommendation‑RAG |
| Luminous | Aleph Alpha | Multilinguale „Sovereign AI“ (Deutsch stark) | 2023 (Q4) Base; 2024 (Q3) Extended | Multilingual; EU‑DSGVO; Use‑Cases: Regierungs‑Projekte, sensible Daten |
| Phi‑3 (Mini – Vision) | Microsoft | Kompakte Modelle für Edge‑Geräte | Apr 2024 (Phi‑3 Mini) / Juni 2024 (Small) / Okt 2024 (Medium/Vision) | Kompakt; On‑Device; Use‑Cases: Mobile‑Apps, Offline‑Summaries |
| PPLX‑70B‑Online | Perplexity AI | LLM mit Live‑Web‑Retrieval & Quellenangaben | März 2024 (70B Online) / Okt 2024 (7B Online) | Live‑Web‑Retrieval; Use‑Cases: Echtzeit‑Recherche, Fact‑Checking |
| Microsoft Copilot (Suite) | Microsoft | Office/Windows‑Assistent auf Basis GPT‑4o + Phi‑3 | Sept 202Office/Teams; Agent‑Framework; Use‑Cases: Meeting‑Minutes, M3 (GA) – Upgraded GPT‑4o Mai 2024 | Office/Teams; Agent‑Framework; Use‑Cases: Meeting‑Minutes, Mail‑Drafting |
| DeepSeek‑V3 / R1 & DeepSeek‑LLM 7B/67B | DeepSeek AI | Chinesische Modell‑Familie; 7 B‑ & 67 B‑Open‑Source‑Varianten, neue V3‑ und R1‑Reasoning‑Modelle schlagen Llama 3 & teils GPT‑4o in Benchmarks | Dez 2023 (67B v1) / März 2025 (V3/R1) | ZH/EN; Open‑Source; Use‑Cases: Multilingual‑Bots, Edu‑Tech |
Marktüberblick und Branchentrends (Frühjahr 2025) – Wichtige KI‑Agenten & Frameworks
Enterprise‑Reife: Plattformprovider (OpenAI, Google, Microsoft) bieten vollständige Tool‑Chains von Entwicklung bis Monitoring.
Open‑Source‑Dynamik: Frameworks wie AutoGen, LangGraph und CrewAI wachsen rasant und sind modell‑agnostisch.
Vertikale Spezialisten: Agents wie Devin zeigen, dass fokussierte Domänen‑Agenten (Coding, Sales, FinOps) marktreif werden.
Zuverlässigkeit bleibt kritisch: Studien warnen vor kumulativen Fehlern bei mehrstufigen Tasks– robuste Guardrails & Tests sind essenziell.
KI‑Agenten & Frameworks
| Anbieter / Framework | Typ & Zielgruppe | Release‑Stand | Kernfeatures & typische Use‑Cases |
| OpenAI – Agents SDK | Open‑source‑SDK für autonome & Multi‑Agent‑Workflows | März 2025 | Guardrails, Handoffs, Tracing; Beispiel‑Apps für Support‑ und Recherche‑Bots OpenAI |
| Microsoft Research – AutoGen v0.4 | Python/ . NET‑Framework | Feb 2025 | Asynchrone Ereignisarchitektur, Cross‑Language‑Support, OpenTelemetry‑Tracing Microsoft |
| Google Cloud – ADK & Agent Engine | SDK + Managed Runtime in Vertex AI | Apr 2025 | Agent‑Garden‑Beispiele, Agent2Agent‑Protokoll, Gemini‑Modelle, Enterprise Deployment Google Cloud |
| Microsoft 365 – Copilot Studio Agent Builder | No‑/Low‑Code‑Builder für Business‑User | März 2025 | „Describe & Configure“‑Modus, SharePoint‑Grounding, Analytics Microsoft Learn |
| Anthropic – Claude Agents | API‑Baukasten (Claude 3 Sonnet u. a.) | 2025 | Workflow‑APIs, „Claude Code“ Terminal‑Agent, Fokus auf Brand‑Safety Home |
| Cognition AI – Devin 2.0 | Vertikaler Code‑Agent („AI Software Engineer“) | Apr 2025 | Projekt‑Planung + Unit‑Tests, Docs‑Erstellung, neues Pay‑as‑you‑go‑Modell ab 20 $ TechCrunch |
| CrewAI | Multi‑Agent‑Plattform (Open Source + SaaS) | laufend | „Crews“ & UI‑Studio, No‑Code‑Vorlagen, Monitoring‑Dashboards crewai.com |
| LangGraph | Graph‑basierte Orchestrierung (LangChain‑Ökosystem) | 2025 | Zustandsverwaltung, Moderations‑Loops; AWS Bedrock‑Integration |
Definition und Bedeutung SDK und ADK
SDK
Software Development Kit:
Ein Paket aus Werkzeugen, Bibliotheken, APIs, Beispielcode und Dokumentation, mit dem Entwickler :innen Anwendungen für eine bestimmte Plattform oder ein Framework erstellen, testen und debuggen können.
ADK
Agent Development Kit:
Ein (meist quelloffenes) Toolkit zum Entwerfen, Orchestrieren, Evaluieren und Bereitstellen von KI‑Agenten – aktuell vor allem als Google‑Projekt bekannt, das auf Gemini‑Modelle und Vertex AI zugeschnitten ist.
