Können wir bald in Echtzeit mit Delphinen sprechen?
Googles KI-Modell DolphinGemma soll die Kommunikation mit Delfinen ermöglichen – mithilfe von Smartphones und maschinellem Lernen.

Delfine gehören zu den intelligentesten Tieren, direkt mit ihnen sprechen können wir mit ihnen bislang jedoch nicht. Google möchte das ändern.
Foto: PantherMedia / Alexey Stiop
Delfine zählen zu den intelligentesten Lebewesen im Tierreich. Sie leben in komplexen sozialen Gruppen, erkennen sich gegenseitig an individuellen Pfeiftönen und scheinen gezielt zu kommunizieren. Doch obwohl Forschende sie seit Jahrzehnten beobachten, bleibt ihre Sprache für den Menschen bisher ein Rätsel. Das will Google jetzt ändern.
Mit einem neuen KI-System möchte der Tech-Konzern die Grundlage für eine Verständigung zwischen Mensch und Delfin schaffen. Das Projekt verbindet moderne Sprachmodelle mit langjähriger Delfinforschung – und nutzt dabei erstaunlicherweise handelsübliche Smartphones.
Inhaltsverzeichnis
Ein KI-Modell für die Delfinsprache
Im Mittelpunkt des Vorhabens steht ein KI-System mit dem Namen DolphinGemma. Es basiert auf Googles Sprachmodell-Familie Gemma, die ähnlich wie ChatGPT mit riesigen Mengen an Daten trainiert wurde. Während ChatGPT menschliche Sprache verarbeitet, ist DolphinGemma auf Delfinlaute spezialisiert – insbesondere auf die Kommunikation Atlantischer Fleckendelfine, die seit Jahrzehnten vom Wild Dolphin Project (WDP) auf den Bahamas untersucht wird.
DolphinGemma verarbeitet Unterwassergeräusche wie Klicks, Pfiffe und Impulse. Anschließend sagt das System voraus, welche Laute wahrscheinlich folgen – so wie Sprachmodelle bei Menschen das nächste Wort in einem Satz vorhersagen. Ziel ist es, Muster zu erkennen, die auf eine sinnvolle Kommunikation schließen lassen.
„Wir wollen verstehen, was Delfine sagen – nicht nur zuhören, sondern auch antworten können“, so das Team des WDP.
Jahrzehntelange Daten als Trainingsgrundlage
Die Grundlage für DolphinGemma bilden über 40 Jahre gesammelte Daten aus der Delfinforschung. Das WDP hat unzählige Stunden an Unterwasservideos und Tonaufnahmen zusammengetragen, die mit konkreten Verhaltensweisen einzelner Delfine verknüpft sind. Diese Kombination ist entscheidend: Nur wenn klar ist, welches Tier welchen Laut in welchem Kontext äußert, lassen sich daraus Regeln und Strukturen ableiten.
Einige Beispiele:
- Individuelle Pfeiftöne, sogenannte Signaturpfiffe, dienen Delfinen zur gegenseitigen Erkennung.
- Impulsartige „Quaklaute“ treten oft bei Konflikten auf.
- Klicklaute begleiten Balzverhalten oder die Jagd.
Dieses Wissen fließt in die Trainingsdaten von DolphinGemma ein. Die KI soll lernen, diese komplexen Zusammenhänge zu erkennen – und im besten Fall nachzuahmen.
DolphinGemma funktioniert mit Smartphones
Besonders überraschend ist die technische Umsetzung: DolphinGemma läuft auf modifizierten Google-Pixel-Smartphones. Diese Geräte sind mit einem System namens CHAT (Cetacean Hearing Augmentation Telemetry) verbunden, das speziell für Unterwassereinsätze entwickelt wurde. CHAT nimmt Delfinlaute auf, analysiert sie in Echtzeit und gibt den Forschenden Rückmeldung – über Knochenleitungskopfhörer, die auch unter Wasser funktionieren.
Das System ist nicht darauf ausgelegt, die Delfinsprache vollständig zu entschlüsseln. Stattdessen soll es zunächst helfen, ein gemeinsames Vokabular zu schaffen – bestehend aus einfachen Lauten, die mit bestimmten Objekten verknüpft werden. So könnten Delfine lernen, mit einem Ton auf ein bevorzugtes Spielzeug zu verweisen.
Interaktion durch gezielte akustische Signale
Ein zentrales Ziel ist es, durch gezielte akustische Signale Interaktion zu ermöglichen. Forschende senden synthetische Töne ins Wasser, die sich deutlich von natürlichen Delfinlauten unterscheiden. Diese werden jeweils einem Objekt zugeordnet – etwa einem Stück Seegras oder einem Schal.
Reagiert ein Delfin mit einem passenden Laut oder einer Nachahmung, erkennt DolphinGemma dies laut Forschungsteam und liefert Feedback. Die Forschenden können dann gezielt reagieren – etwa das gewünschte Objekt bereitstellen. Auf diese Weise könnte sich mit der Zeit eine Form der wechselseitigen Verständigung entwickeln.
Herausforderungen unter Wasser
Die Erkennung von Lauten im offenen Meer ist technisch anspruchsvoll. Strömungen, andere Tiere oder das Boot selbst erzeugen Hintergrundgeräusche. Das CHAT-System muss daher nicht nur exakt hinhören, sondern auch blitzschnell reagieren. Gleichzeitig muss es die Herkunft der Laute richtig zuordnen und passende Rückmeldungen geben.
Das System wurde bereits mit dem Google Pixel 6 getestet. Für den Sommer 2025 ist ein Feldversuch mit dem neueren Pixel 9 geplant. Dieses bringt verbesserte Mikrofon- und Lautsprechertechnik mit, dazu leistungsfähigere KI-Prozessoren. Dadurch lassen sich Deep-Learning-Modelle direkt auf dem Gerät ausführen – ohne zusätzliche Hardware.
Offene Forschung für die Wissenschaft
DolphinGemma ist nicht als Geheimprojekt konzipiert. Google plant, das Modell im Sommer öffentlich zur Verfügung zu stellen. Zwar wurde es auf Daten Atlantischer Fleckendelfine trainiert, doch Forschende weltweit sollen es an andere Arten wie Große Tümmler oder Spinnerdelfine anpassen können.
Eine Feinabstimmung der Modelle auf regionale oder artenspezifische Unterschiede ist dabei vorgesehen. Die offene Struktur des Systems erleichtert diese Anpassung und soll die Zusammenarbeit in der Meeresforschung fördern.
„Wir hoffen, dass viele Teams auf der ganzen Welt DolphinGemma nutzen können, um ihre eigenen Datensätze zu analysieren und neue Erkenntnisse zu gewinnen“, erklärt Google.
Ein Beitrag von: