UNSER FORSCHUNGSSCHWERPUNKT

KI für die reale Welt

DEMO ANFRAGEN
Wir haben Blinkin mit einer einfachen Überzeugung entwickelt: Hilfe bei der Arbeit sollte so einfach sein wie das Drücken einer Taste.
Hand haltendes Smartphone, auf dem ein angehaltenes Video eines Mannes zu sehen ist, der die Möglichkeit hat, Produkte zu entdecken, Produkte zu vergleichen und Fragen zu stellen.In der Hand haltendes Smartphone, auf dem ein Video eines Mannes zu sehen ist, der die Möglichkeit hat, Produkte zu entdecken, Produkte zu vergleichen und Fragen zu stellen.
Flagge der Europäischen Union mit zwölf gelben Sternen, die in einem Kreis auf blauem Grund angeordnet sind.
Unterstützt von der Europäischen Union

Blinkin VLM - Dichte und Mischung von Experten

Jenseits von Text und Pixeln: So funktioniert Blinkin VLM

DEMO ANSEHEN
KI-Modelle können heute viel — Code schreiben, Bilder erstellen und Text generieren. Tools wie GPT-4 von OpenAI und Gemini von Google zeigen, wie weit Sprach- und Bildmodelle gekommen sind. Aber die meisten von ihnen behandeln Text und Grafik immer noch getrennt. Blinkin VLM macht den nächsten Schritt. Es verbindet Text und Bilder und gibt Aufschluss darüber, wie sie zueinander in Beziehung stehen.
Diagramm zur Veranschaulichung einer multimodalen Lernarchitektur mit ViT- und RobertA-Encodern für Bild und Text, einem multimodalen Transformator-Encoder und einem Llama 3-Textdecoder, das Verbindungen und Verlustfunktionen zeigt.

Das Problem mit Single-Modality-Superstars

MEHR WISSEN
Die besten KI-Modelle von heute sind stark, konzentrieren sich aber in der Regel auf einen Datentyp. Sprachmodelle können gut mit Text umgehen, da sie für große Mengen an Schrift trainiert sind. Bildmodelle eignen sich hervorragend für visuelle Elemente, da sie an Milliarden von Bildern trainiert wurden. Sie arbeiten als Spezialisten. Aber in der realen Welt ist das nicht so. Wir trennen Text, Bilder und Anweisungen nicht, wir kombinieren sie. Wenn wir ein Flussdiagramm lesen, verwenden wir sowohl das Diagramm als auch den Text, um es zu verstehen. Wenn wir uns ein wissenschaftliches Bild ansehen, verbinden wir die Beschriftungen mit den visuellen Details.
Das Lebensmittelnetzdiagramm zeigt Produzenten wie Bäume und verschiedene Verbraucher wie Pika, Rotbrustkleiber, Douglas-Eichhörnchen, Maultierhirsch, Kojote, Berglöwe und Rotluchs, wobei Pfeile auf Nahrungsverhältnisse hinweisen.

So funktioniert Blinkin VLM: Selbstüberwachtes multimodales Lernen

DEMO ANSEHEN
Blinkin VLM verwendet einen selbstüberwachten Trainingsansatz. Anstatt auf große, von Menschen beschriftete Datensätze angewiesen zu sein, lernt es direkt aus Rohdaten. Es ist so, als würde ein Schüler Dinge durch Übung herausfinden, anstatt die Antworten zu erhalten. Das Modell wird mit Zielen trainiert, die es dazu bringen, ein gemeinsames Verständnis von Bild und Text aufzubauen. Dadurch können Sprache und Bilder auf natürlichere Weise miteinander verbunden werden.

Blinkin VLM schafft ein gemeinsames Verständnis

Maskierte Text- und Bildmodellierung (LMLM & LMIM)

Blinkin VLM beginnt mit Standardtrainingsaufgaben. Bei der Modellierung maskierter Sprachen werden Teile eines Satzes ausgeblendet und das Modell sagt die fehlenden Wörter voraus. Bei der Modellierung maskierter Bilder werden Teile eines Bildes ausgeblendet und das Modell rekonstruiert sie. Diese Aufgaben helfen dem Modell, starke Text- und Bilddarstellungen getrennt voneinander zu erstellen. Ein Schüler-Encoder arbeitet mit den maskierten Eingaben, während ein Lehrer-Encoder die vollständigen Daten sieht.

Visuelle Token-Decodierung (VTD)

Connecting the Dots — Visual Token Decoding trainiert Blinkin VLM, Bilder am Text auszurichten. Beispielsweise prognostiziert das Modell anhand eines Diagramms und seiner Beschreibung anhand von Text- und Bilddaten die fehlenden Beschriftungen („visuelle Zeichen“). Dadurch entsteht eine starke Verbindung zwischen dem, was es liest, und dem, was es sieht, und ermöglicht so modalübergreifendes Denken.

Standortbezogene Regionsmodellierung (LLRM)

Dieses Ziel trainiert Blinkin VLM darin, den Inhalt einer maskierten Region in einem Bild anhand von Umgebungsbildern und Text vorherzusagen. Es kann beispielsweise eine Phrase wie „der Fuchs“ mit dem richtigen Teil eines Bildes verknüpfen. Dies hilft dem Modell, detaillierte Diagramme zu handhaben, in denen es auf bestimmte Komponenten ankommt, wie z. B. wissenschaftliche Illustrationen.

Standortsensitive Regionsmodellierung

Dadurch wird Blinkin VLM trainiert, Text mit bestimmten Teilen eines Bildes zu verbinden. Bei einem maskierten Bereich verwendet das Modell Umgebungsbilder und eine Beschreibung, um vorherzusagen, was fehlt. Steht im Text beispielsweise „der Fuchs“, lernt es, die richtige Stelle im Bild zu lokalisieren. Diese feinkörnige Abbildung eignet sich besonders für Diagramme und detaillierte Grafiken.

Bild-Text-Abgleich (LITM−CE):

Bild-Text-Matching: Sicherstellung der Kohärenz. In diesem Schritt erkennt das Modell Bild-Text-Paare und entscheidet, ob sie übereinstimmen. Dadurch werden Grafiken und Beschreibungen auf globaler Ebene aufeinander abgestimmt. Dabei werden nicht nur Objekte oder Wörter erkannt, sondern auch festgestellt, ob das Bild als Ganzes zum Text passt.

Webhook-Integrationen

Stellen Sie eine Verbindung zu Tools wie HubSpot, Notion, Airtable, Salesforce oder Ihrem Projektstapel her.

Analyse-Dashboard

Verfolgen Sie Aufrufe, Abschlüsse, Drop-Offs und Einblicke in das Engagement in all Ihren Formularen, Videos und KI-Chats — in Echtzeit.

ERSTELLE JETZT DEIN BLINKIN

Eine leistungsstarke Lehrer-Schüler-Architektur

MEHR WISSEN
Blinkin VLM trainiert mit einem Lehrer-Schüler-Setup. Der Schüler-Encoder sieht maskierte oder modifizierte Eingaben, während der Lehrer-Encoder mit den vollständigen Daten arbeitet. Der Schüler lernt dann, indem er die Ausgangswerte des Lehrers anpasst und dabei Smooth L1 Loss verwendet, um Unterschiede zu reduzieren. Dieser Prozess trägt dazu bei, dass das Modell auch dann genau bleibt, wenn Teile der Daten fehlen oder geändert werden.
Blinkin VLM geht über die Theorie hinaus und bietet praktische Anwendungen in allen Bereichen. In der Forschung kann es komplexe Diagramme erklären, Schlüsselkomponenten identifizieren und unterstützende Texte generieren. Im Unterricht hilft es den Schülern, die visuelle Darstellung von Lehrbüchern in Fächern wie Chemie und Physik zu verstehen. Für technische Teams kann es Dokumentationen anhand von Schaltplänen erstellen oder korrigieren, was Zeit und Mühe spart. Es ermöglicht auch das Abrufen von Informationen, indem Benutzer mit Bildern oder Diagrammen statt mit Text suchen können. Durch die Verknüpfung von Bild und Sprache durch selbstüberwachtes Lernen bietet Blinkin VLM eine natürlichere Art, Informationen zu verstehen und zu nutzen.
DEMO ANSEHEN

Auswirkungen auf die reale Welt: Von Diagrammen zur Entdeckung

DEMO ANSEHEN

Blinkin AI löst echte Herausforderungen

Das Herzstück von Blinkin VLM ist der Data-to-Sequence Tokenizer, ein universeller Übersetzer, der alle Daten, Texte, Bilder, Video-, Audio- oder sogar medizinischen Scans in eine einzige einheitliche Sequenz von Tokens umwandelt. Diese Sequenz fließt in das Unified Multimodal Model, das „Gehirn“ von Blinkin VLM, ein. Indem das Modell alle Modalitäten zusammen verarbeitet, deckt es Muster, Verbindungen und verborgene Beziehungen auf und erzeugt so eine leistungsstarke semantische Einbettung, ein destilliertes Verständnis der Eingabe. Im Gegensatz zu herkömmlicher KI, die separate Modelle für verschiedene Datentypen benötigt, kann Blinkin VLM ein Röntgenbild, eine Patientenakte und sogar die Sprachnotizen eines Arztes in einem Stream verarbeiten und bietet so eine wirklich ganzheitliche Ansicht und eine beispiellose Verschmelzung von Informationen.
DEMO ANSEHEN
Die wahre Stärke von Blinkin VLM liegt in seiner Fähigkeit, mit jeder Herausforderung umzugehen. Es kann jede Kombination von Eingängen annehmen und eine beliebige Kombination von Ausgängen generieren. Diese Fähigkeit ist nicht nur eine technologische Spielerei, sondern ein Paradigmenwechsel mit Auswirkungen auf die reale Welt, die wirklich überwältigend sind.

Ein Universum von Anwendungen: Von der Börse bis zur Chirurgie

Anwendungen von Blinkin VLM
  • Finanzielle Analyse: Blinkin VLM kann Aktiendaten, Nachrichtenartikel, Analystenkommentare und sogar Satellitenbilder von Fabriken oder Häfen gleichzeitig betrachten. Indem es diese Teile miteinander verbindet, kann es Muster erkennen — zum Beispiel die Verknüpfung von verringerter Fabrikaktivität mit Nachrichtenberichten, um Veränderungen der Aktienkurse zu antizipieren.
  • Autonome Navigation: Selbstfahrende Autos sind auf viele Eingänge wie Live-Video, Radar und Wärmebilder angewiesen. Blinkin VLM kann diese zusammenführen und so dem Fahrzeug helfen, Fußgänger im Regen, Autos im Nebel oder bei plötzlichem vorausfahrenden Bremsen zu erkennen und gleichzeitig Schilder und Signale zu lesen. Dies verbessert die Sicherheit und die Entscheidungsfindung im Straßenverkehr.
  • Überwachung der Umwelt: Blinkin VLM kann Wetterdaten (Time Series) und Sensorwerte (Graph) verarbeiten, um Umweltveränderungen zu überwachen.
  • Jenseits des Bekannten: Die Möglichkeiten sind wirklich endlos. Blinkin VLM kann intelligente Assistenten unterstützen, die nicht nur Ihre Stimme, sondern auch Ihre Gesten (IMU) und Gesichtsausdrücke verstehen, wodurch eine natürlichere und einfühlsamere Interaktion entsteht. Es kann soziale Netzwerke (Graph) in Verbindung mit Benutzerbeiträgen (Text, Bild) analysieren, um kulturelle Trends vorherzusagen und die Verbreitung von Informationen zu verstehen. Es kann sogar verwendet werden, um neue Kunst, Musik und Literatur zu generieren, indem es sich gleichzeitig von allen Medienformen inspirieren lässt.
Was Blinkin VLM auszeichnet, ist seine Fähigkeit, das einzufangen, was zwischen den Zeilen liegt. Herkömmliche KI könnte Objekte in einem Café, einem Tisch, einem Stuhl oder einer Tasse identifizieren. Blinkin VLM geht noch weiter: Durch die Kombination von Text und Bildern erfasst es die tiefere Idee eines „dritten Ortes“, eines einladenden Knotenpunkts für Gemeinschaft und Kultur. Diese Fähigkeit, abstrakte Konzepte verschiedener Datentypen miteinander zu verknüpfen, ermöglicht es, das einfache Erkennen hinter sich zu lassen und zu echtem Verständnis überzugehen. Es katalogisiert nicht nur, was da ist; es versteht auch die Beziehungen, den Kontext und die Bedeutung, die sie miteinander verbinden.
DEMO ANSEHEN

Die latente Wahrheit: Tiefer als die Oberfläche

DEMO ANSEHEN

Vom Chaos zur Klarheit: Wie Blinkin VLM Unstrukturiertes in Strukturiertes umwandelt

In der Technik, Fertigung und wissenschaftlichen Forschung enthalten Logbücher wichtige Informationen, handschriftliche Notizen, Sensorwerte, Fehlercodes und Diagramme, die den gesamten Verlauf einer Maschine, eines Experiments oder Systems erfassen. Das Problem ist, dass diese Daten oft in unstrukturierten Formaten vorliegen, was es für Maschinen schwierig macht, sie zu verarbeiten oder effektiv zu nutzen. Blinkin VLM löst dieses Problem, indem es Logbuchdaten in strukturierte, umsetzbare Erkenntnisse umwandelt. Anstatt Dokumente einfach zu scannen, können die Informationen gelesen, interpretiert und verknüpft werden, was eine schnellere Problemlösung und fundiertere Entscheidungen ermöglicht.
Multi-Agent-Architektur von Blinkin VLM
  • Extrahieren und verstehen — Das System liest Logbücher mithilfe von OCR und strukturierter Dokumentenintelligenz. Es identifiziert nicht nur den Text, sondern auch das Layout, die Tabellen und Diagramme und erfasst sowohl Inhalt als auch Kontext.
  • Analysieren und berechnen — Es verarbeitet numerische Daten und Diagramme, führt Berechnungen, Toleranzprüfungen und Anomalieerkennung durch, um Probleme aufzudecken, die sonst unbemerkt bleiben könnten.
  • Verifizieren und kontextualisieren — Die Erkenntnisse werden mit technischen Spezifikationen, externen Referenzen und historischen Aufzeichnungen abgeglichen, um sicherzustellen, dass jedes Ergebnis korrekt, relevant und mit praktischen Lösungen verknüpft ist.
Blinkin VLM ist kein einziges Modell, das versucht, alles auf einmal zu machen. Stattdessen wird ein System mit mehreren Agenten verwendet, bei dem jeder Agent auf eine bestimmte Aufgabe spezialisiert ist, aber gemeinsam auf ein Ziel hinarbeitet: eine umfassende Logbuchanalyse.

Jenseits des Offensichtlichen

Die Stärke des Multi-Agentensystems von Blinkin VLM liegt in der Art und Weise, wie die Agenten zusammenarbeiten. Sie kommunizieren kontinuierlich, tauschen den Kontext aus und validieren die Ergebnisse. Beispielsweise kann der Agent für numerische Analysen den Agenten für semantische Extraktion um eine Klarstellung bitten, während der Verifizierungsagent die Erkenntnisse mit beiden abgleichen kann. Dadurch entsteht ein Kreislauf kollektiver Überlegungen, bei dem jeder Blickwinkel untersucht wird, bis eine zuverlässige Schlussfolgerung gezogen wird.
DEMO ANSEHEN
Multi-Agent-Architektur von Blinkin VLM
Stellen Sie sich einen realen Fall vor: Eine komplexe Industriemaschine fällt plötzlich aus. Anstatt dass ein Ingenieur Hunderte von Logbucheinträgen manuell durchsucht, verarbeitet Blinkin VLM die Daten sofort:
  • Extrahiert den Fehlercode und den Zeitstempel.
  • Analysiert Sensorwerte und erkennt einen starken Temperaturanstieg vor dem Ausfall.
  • Überprüft dies anhand der Wartungsaufzeichnungen und findet einen ähnlichen Vorfall im Zusammenhang mit einem Lagerproblem im Vorjahr.
  • Überprüft dies anhand der Wartungsaufzeichnungen und findet einen ähnlichen Vorfall im Zusammenhang mit einem Lagerproblem im Vorjahr.
Anstatt menschliches Fachwissen zu ersetzen, verbessert Blinkin VLM es und fungiert als Partner, der Muster aufdeckt, vergangene Fälle wiederfindet und die Problemlösung beschleunigt. Sein Wert liegt nicht darin, dass es sich um ein umfassenderes Modell handelt, sondern darin, dass es intelligenter, spezialisierter und kollaborativer ist.
Seit 2020 arbeitet Blinkin VLM an Entwicklungen, die über Wahrnehmung und generative KI hinausgehen, und entwickelt eine Multi-Agent-Intelligence-Plattform, die wirklich zusammenarbeitet. Agenten wie Semantische Extraktion, Numerische Analyse und Verifikation interagieren ständig miteinander, überprüfen und validieren ihre Ergebnisse gegenseitig. Es ist dieser Kreislauf kollektiven Denkens, der sicherstellt, dass die Erkenntnisse korrekt, zuverlässig und ausgewogen sind. Aber wir denken nicht mehr nur abstrakt.

Heute entwickelt sich Blinkin VLM in den Bereich der physikalischen KI - in dem Agenten die Welt nicht nur wahrnehmen, sondern sie verstehen, planen und handeln in ihr, was den Weg für branchenübergreifende Anwendungen ebnet, von autonomen Fahrzeugen bis hin zum Kundenservice und darüber hinaus.
DEMO ANSEHEN

Vom kollektiven Denken zur körperlichen Intelligenz