Foundation Models – Nur ein Hype oder die Zukunft der KI?

Inhalt des Artikels

Dein Ansprechpartner

Picture of Tommy Pöschl

Tommy Pöschl

Position

Foundation Models (FMs) heben sich unter anderem durch ihre universelle Einsetzbarkeit und einen niedrigschwelligen Einstieg hervor ihre Fähigkeiten erlangen sie aus enormen Datensätzen, die sie auf alle möglichen Problemstellungen übertragen können. In diesem Beitrag gehen wir vor allem auf die unterschiedlichen Einsatzgebiete der FMs ein und zeigen, wie Sie das am besten geeignete FM finden. 

Was sind Foundation Models?

Foundation Models (FM), auch Basismodelle genannt, sind leistungsstarke und universell einsetzbare KI-Modelle, die auf enormen Datenmengen mittels selbstüberwachenden Trainings trainiert worden sind. Der Begriff Foundation Models wurde durch Forscher des Stanford Institute for Human Centered Artificial Intelligence geprägt und ergab sich aus den immer breiteren Fähigkeiten großer Sprachmodelle. Mittlerweile gehen diese Fähigkeiten weit über die reine Interpretation und Generierung von Sprache heraus, wodurch sie häufig als Ausgangspunkt für komplexere KI-Anwendungen dienen. 
Sie können Milliarden von Parametern beinhalten und ermöglichen die Bewältigung unterschiedlicher Aufgaben.  

FMs sind das Ergebnis eines intensiven und aufwendigen Trainingsprozesses und bauen auf einer Evolutionsstufe von Deep Learning Architekturen auf. 

Lesen Sie hierzu gerne unseren Beitrag zum Thema Machine Learning vs. Deep Learning: Das richtige Konzept für die erfolgreiche KI-Integration finden“.

FMs zeichnet häufig ein emergentes Verhalten aus. Dabei ist es oft nicht einfach, zu unterscheiden, ob das Verhalten beziehungsweise die Antwort bereits in dem Trainingsdatensatz enthalten war, tatsächlich neu kreiert oder aus dem Zusammenspiel des gelernten Kontexts erschlossen wurde. Diese große Breite an Fähigkeiten und das Potenzial, scheinbar Neues aus einem Kontext schließen zu können, qualifiziert FMs für den Einsatz in verschiedenen Anwendungsszenarien, die von Flexibilität und Unsicherheit geprägt sind – ein Bereich, der bislang überwiegend von menschlichen Akteuren bespielt werden musste. 

Trotz ihrer Flexibilität können FMs weder internes Wissen noch interne Informationen nachliefern. Daher muss die Breite der sprachlichen Fähigkeiten durch eine Anreicherung mit internen Daten verringert und in die Tiefe entwickelt werden. Bei diesem Prozess sprechen wir von einem Model Grounding. Durch das Grounding (ggf. ins Glossar) besteht die Möglichkeit, FMs auf spezifische Aufgaben anzupassen.  

Eine Art der Nutzung von Foundation Models ist die Nutzung von Large Language Models (LLMs). 

Wenn sich Unternehmen für die Nutzung von LLMs entscheiden, können sie diese in der Regel auf 3 verschiedene Arten nutzen: 

Öffentliche Modelle verfügen über einen Online-Zugang via OpenAI, Microsoft, Google oder Ähnliches.  

Üblicherweise gibt es nur eine Chat-Interaktion. Die öffentlichen Modelle eignen sich gut für Brainstorming und Ideenfindung, wobei Datenschutz und Datensicherheit eher mäßig einzustufen sind. Eine Integration in Anwendungen und Applikationen ist nicht möglich und wenn, dann ist dies durch die Anbieter definiert wie bei Gemini oder CoPilot. 

Zum Teil angepasste und individualisierte Modelle nennt man Custom Modelle. Dass der User ein solches Modell auf einen bestimmten Zweck hin optimieren kann, erweist sich als Vorteil.  

Aber: Datenschutz und Datensicherheit können nur mäßig sichergestellt werden. Darüber hinaus besteht die Gefahr eines Lock-In-Effekts. Im Gegensatz zu den öffentlichen Modellen ist eine bessere Integration in Anwendungen gegeben. Ein Beispiel hierfür stellt GPTs von Open AI zur Beantwortung von First-Level-Support-E-Mails. 

Als Open Source Modelle wie zum Beispiel Lamar werden komplett offene und individuell zu gestaltende Modelle bezeichnet. Durch die Möglichkeit zur eigenen Verwaltung und das eigene Hosting gelten diese als sicher, sie bieten auch maximale Flexibilität in der Anwendungsintegration. Ein weiterer Vorteil ist, dass kein Lock-In-Effekt besteht, da sie durch den Open Source Ansatz anbieterunabhängig entwickelt werden. Außerdem bringen die schnelle Reaktionsfähigkeit auf Neuerungen in Design und Architektur eine hohe Effizienz mit sich. 

Es existiert jedoch ein verhältnismäßig großer Aufwand bezüglich der Verwaltung und Betreuung dieser Modelle – hier ist die Unterstützung von Expertinnen und Experten gefragt. 

 

Folgende Grafik stellt den Zusammenhang zwischen generativer KI, Large Language Models und Foundation Models dar: 

So finden Sie das richtige Foundation Model für Ihr Vorhaben

Wenn es um die Wahl des optimalen Foundation Models geht, sollten Sie folgende Punkte beachten:

  1. Welche Aufgaben soll das Modell lösen?
    Was ist mir wichtig? Denn danach richtet sich die Art des Modells, ob Public, Custom oder Open Source. Beim Verfassen kreativer Inhalte wie Copy Writing oder Produktbeschreibungen, denen man einen eigenen Touch verleihen möchte, sind Open Source Modelle oft hilfreich, da sich diese besser an die eigenen Bedürfnisse anpassen lassen. Wenn es darum geht, einen möglichst allgemeinen „Assistenten“ zu nutzen, sind Modelle großer Anbieter meist einfacher in der Handhabung sowie kostengünstiger. Zudem kommt es darauf an, in welchem Medium Inhalte gestalten werden sollen. Insbesondere zur Generierung von visuellen Inhalten sind Modelle spezialisierter Anbieter die beste Wahl. Unabhängig von den jeweiligen Anwendungsfällen ist Flexibilität in der Modellauswahl entscheidend. Die hohe Dynamik am Markt und das Wettrennen der verschiedenen Anbieter machen geringe Wechselkosten im Lösungsdesign besonders wichtig.

  1. Was sind meine Rahmenbedingungen und Ansprüche an die Nutzung der Modelle?

    Je nach Rahmenbedingungen und Regulatorik können die Ansprüche an die Transparenz und Sicherheit die Entscheidung der Modellauswahl beeinflussen. Einfache RAG-Systeme sind beispielsweise für die produktive Beantwortung von Kundenanfragen in kritischen Bereichen ungeeignet, da die Selektion der zur Antwort hinzugezogenen Informationen nicht ersichtlich ist.

    Es bedarf einer klugen Auswahl der genutzten Architektur, um dieser Herausforderung zu begegnen.
    Darüber hinaus kommt es in der Konzeption im Kontext regulatorischer Anforderungen auf die Standorte der Modellanbieter an. Je nach Integrationstiefe kann ein lokales Deployment notwendig sein. Hier kommen in der Regel nur Open Source LLMs in Frage, da diese keinen proprietären Besonderheiten und Beschränkungen unterliegen.

Mögliche Einsatzgebiete

Die Einsatzmöglichkeiten von FMs sind vielfältig: Jedoch tritt eine Häufung von Anwendungsfällen in folgenden Bereichen auf:

  1. Wissensmanagement (RAG)
  2. Customer Support
  3. Copy Writing
  4. Data Curation
  5. Augmented AI Services

 

Im Kundenservice als Chatbots oder KI-gestützte FAQs lässt sich durch sie ein Menge Zeit sparen.
Bei Beschwerde-E-Mails lassen sich beispielsweise 80% der eingegangenen Nachrichten im Hinblick auf die Stimmung des Kunden (Klassifizierung) richtig zuordnen. Dies ermöglicht gezieltere Ansprachen und passendere Antworten für die Kunden.

Es besteht die Möglichkeit, im Bereich der Data Curation LLMs einzusetzen, um semantische Zusammenhänge zu erkennen und so Datensätze selbstständig zusammenzuführen. Das erspart hohe manuelle Aufwände und reduziert die Fehlerquote in der Zusammenführung von Datensätzen.

Im Bereich der Augmented AI Services ist es vorteilhaft, LLMs dafür zu verwenden, in Prozessen Extraktions- und Kontrollaufgaben zu übernehmen. Dabei können sie vor allem Edge Cases und Exceptions aus der Prozessautomatisierung ergänzen, damit diese den Prozessdurchlauf nicht weiter aufhalten und nur ein geringer Teil durch Menschen nachgearbeitet werden muss.

Fazit

Der Markt der Foundation Models befindet sich im stetigen Wandel. Wer den Wettbewerb um das beste Modell gewinnen wird, ist ungewiss. Eins steht fest: FMs gehen über einen reinen Hype hinaus. Ihre Vielseitigkeit machen sie zu einem wertvollen Werkzeug für viele Anwendungen, für die man in der Vergangenheit nur mit großem Aufwand und ebensolcher Komplexität eine Lösung hätte entwickeln können. Dadurch erhöhen sich Nutzbarkeit und Schnelligkeit bis zur Produktionsreife KI getriebener Anwendungen im Unternehmen. Es stehen also spannende Zeiten bevor.