Google-Workspace-Chefin: Alles mit KI, aber mit Bedacht

Seite 2: Dog-Fooding bei Google

Inhaltsverzeichnis

Wir alle wissen, dass KI in Geschäftsanwendungen nicht halluzinieren sollte. Wie implementieren Sie hier die notwendigen Leitplanken, damit das nicht passiert?

Das ist der Grund, warum wir in unseren Testphasen so vorsichtig sind. Wir verbringen viel Zeit in der sogenannten Dog-Fooding-Phase, also intern bei Google, wo wir dann alles ausprobieren. Wir nutzen die Features tagtäglich im Arbeitskontext, bevor sie an die Öffentlichkeit kommen. Und dann verbringen wir ausreichend Zeit damit in den Workspace-Labs mit Trusted Testers, um die letzten Probleme zu lösen.

Und zur Frage mit den Leitplanken: Es gibt verschiedene Techniken, die wir verwenden. Ich denke, ein Großteil davon dreht sich um die Frage, wie wir das sogenannte Corpus Grounding einsetzen. Der Nutzer bekommt dann seine Antwort, aber eben auch Quellenangaben zu bestimmten Dateien. Das System wird mich also an die richtigen Stellen verweisen.

Das hilft nicht nur dabei, Halluzinationen zu reduzieren, sondern macht es auch für den Endbenutzer einfacher, Antworten der KI zu überprüfen und selbst nachzuvollziehen. Und so machen wir es Business-Kontext eben.

Viele Leute sagen, KI sei bei der Texterstellung zwar bereits interessant, das Problem sei aber, zu überprüfen, was stimmt und was nicht. 80 Prozent des Outputs sind in Ordnung, aber wie finde ich die restlichen 20 Prozent, die falsch sind?

Ich denke, hier ist unsere Funktion einer zusätzlichen Überprüfung mittels Google-Suche so großartig. Sie erhalten dann die Links zu Quellen. Das ist auch eines der Dinge, für die ich so dankbar bin, bei Google zu arbeiten – die Tatsache, dass wir eine erstklassige Suchmaschine haben, die uns dabei helfen kann. Und natürlich auch den Nutzern.

Gemini for Workspace nutzt das Material der Nutzer nicht für Trainingszwecke. Wie stellen Sie sicher, dass keine Datenlecks entstehen? Sie erlauben es ja nicht, Ihr Modell mit Kundendaten zu tunen, oder?

Ich denke, dass unser Ansatz, die neuesten und besten Techniken zu verwenden, um Kontext an das Modell weiterzugeben, bessere Ergebnisse liefert, aber eben auf eine sicherere Weise. Wenn man Geschäftsdaten zum Tuning der Modelle annimmt, ergeben sich einige der potenziellen Probleme, die Sie bereits in Bezug auf Sicherheit und Datenschutz angedeutet hatten.

Unser Ansatz ist dabei stets, dass Ihre Daten Ihre Daten sind. Wir nutzen Informationen aus Ihrem Korpus in der Cloud, wobei wir nur Dinge, auf die Sie selbst Zugriff haben, als Kontext an das Modell weitergeben. Aber wir speichern diese Informationen nicht, nutzen sie nicht zum Training und nicht zum Finetuning. Denn das birgt das Risiko, dass Daten an andere Kunden geraten könnten.

(bsc)