Microsoft vs. Google: Die Big Player bringen sich in Stellung
Wie groß die Tragweite dieser Programme ist, lässt sich erahnen, wenn man auf die Global Player im IT-Bereich blickt: Microsoft will zukünftig Milliarden in die Firma OpenAI investieren – und das zusätzlich zum bisherigen Investment von über einer Milliarde Dollar. Die eigene Suchmaschine Bing soll durch die Erweiterung mit GPT 3.5 noch attraktiver und besser werden. Ferner möchte Microsoft ChatGPT bald für Kunden von Azure (Link zu unserem Azure Angebot einfügen) und dem Office Paket verfügbar machen. So sollen sich neue Funktionen, verbesserte Interaktionen der Nutzenden und eine einfachere Bedienung in der Cloud ergeben. Durch den Einsatz natürlicher Sprache würden Suchanfragen oder Analysen sowie Datenvisualisierungen auf eine neue Ebene gehoben und deutlich vereinfacht, so der Hersteller.
GPT 3.5 läuft bereits auf der Azure-Infrastruktur, wurde auf der Basis von Azure-Ressourcen trainiert. Sicherheitsmechanismen, die Missbrauch der Technologie verhindern sollen, wurden zudem in Stellung gebracht: So müssen Entwicklerinnen und Entwickler ihren Anwendungsfall beschreiben, bevor sie von Microsoft dafür freigeschaltet werden. Der Limited Access soll die Bereiche der Verwendung von Microsoft überwachbar machen. Inhaltsfilter gegen Hassrede und unerwünschte Inhalte sind weitere Maßnahmen des Tech-Giganten aus Redmond.
Konkurrent Google hat als Reaktion angekündigt, die selbst entwickelte Sprach-KI „Bard“ ebenfalls bald nutzbar zu machen. Die Veröffentlichung von ChatGPT scheint in Kalifornien ein kleines Beben ausgelöst haben: Der Marktführer fürchtete um die Relevanz seiner eigenen Google Suche und gab angeblich einen internen „Code Red“ aus. Ebenfalls bereits in Entwicklung sind verschiedenste Tools, die dabei helfen sollen, menschlich erstellte Texte von solchen zu unterscheiden, die von Maschinen formuliert wurden. Neben OpenAI selbst arbeiten sowohl an der Standfort University als auch in Princeton Expertinnen und Experten an der Konstruktion solcher Programme. Viele Beobachterinnen und Beobachter fürchten ein „AI arms race“, also ein Wettrüsten der Wettbewerber auf dem Markt künstlicher Intelligenz. Besonders prekär wird dies, betrachtet man die Risiken, die mit der neuen Technologie einhergehen.
Daten- und Faktensicherheit – ein Ding der Vergangenheit?
Um das Chatmodell zu trainieren, werden vielfältige Daten aufgenommen, gespeichert und verarbeitet. Im Hinblick auf Datenschutz und Sicherheit werden hier keinerlei Standards eingehalten, die in Europa gelten, da die Server ausnahmslos in den USA stehen. Selbst Microsoft soll seine Mitarbeitenden trotz der Beteiligung an OpenAI dazu angewiesen haben, keine vertraulichen oder höchst relevanten Datensätze mithilfe der KI zu bearbeiten. Auch sind Fragestellungen in Bezug auf Hassparolen und Falschnachrichten essentiell: Das Modell muss mit von Menschen erstellten Datensätzen trainiert werden, damit es weiter lernt. Diese Daten sind aber – der menschlichen Natur geschuldet – mit Meinungen und Ansichten gefärbt. Im Extremfall kann es so dazu kommen, dass KI-Programme beispielsweise rassistische oder antisemitische Äußerungen reproduzieren und weiterverbreiten. ChatGPT ist weit davon entfernt, fehlerlos zu sein: Aussagen und Faktenlagen sind nicht immer korrekt, die Quellenlage für die genannten Informationen ist oftmals fraglich. Das Tool bildet nicht transparent ab, woher es seine Daten bezieht. Auf diesem Wege können sich Falschinformationen schnell und effektiv verbreiten: Nach den „Fake News“ jetzt also die „Fake Facts“?