18.12.2019

Google möchte das Potenzial der KI auf respektvolle, ethische und sozial vorteilhafte Weise erkunden. Um die Interpretierbarkeit von Künstlicher Intelligenz zu verbessern, hat Google nun die Google Cloud Explainable AI bekannt gegeben. Diese sollen Menschen helfen zu verstehen, wie ein Modell des maschinellen Lernens zu seinen Schlussfolgerungen kommt. In der Google Cloud dienen die Erklärungen dazu, die transformativen Funktionen bereitzustellen, die die Unternehmen weltweit benötigen, um erfolgreich zu sein und die Privatsphäre, Sicherheit, Fairness und das Vertrauen ihrer Nutzer zu verbessern.

Herausforderung: Machine Learning Verhalten verstehen

KI kann neue Wege erschließen, um Unternehmen effizienter zu machen und neue Möglichkeiten zur Kundenzufriedenheit zu schaffen. Zwar können Machine Learning Modelle komplizierte Zusammenhänge zwischen einer enormen Anzahl von Datenpunkten identifizieren und so eine unglaubliche Genauigkeit erreichen. Doch bei der Überprüfung der Struktur oder der Gewichtung eines Modells bleibt immer noch die Frage offen: Wie ist das Modell überhaupt zu seinen Entscheidungen gekommen? Eine wichtige Erkenntnis für den Einsatz von KI. Denn für einige Entscheidungsträger bedeutet dies, dass sie die Vorteile der KI gar nicht richtig nutzen können, sofern sie Modelle nicht interpretieren können.

Googles Explainable AI ermöglichen erhöhte Interpretierbarkeit der KI 

Die Erklärungen quantifizieren den Beitrag jedes Datenfaktors zur Ausgabe eines maschinellen Lernmodells. Diese Zusammenfassungen helfen Unternehmen zu verstehen, warum das Modell die Entscheidungen getroffen hat, die es getroffen hat. Mit diesen Informationen können sie ihre Modelle weiter verbessern oder nützliche Erkenntnisse mit den Verbrauchern des Modells teilen. 

Die KI Erklärung besteht aus Tools und Frameworks zur Bereitstellung von interpretierbaren und integrativen maschinellen Lernmodellen. Die Erklärungen für Modelle, die auf AutoML-Tabellen und Cloud AI-Plattform-Vorhersagen gehostet werden, sind ab sofort verfügbar. 

Ausbau der verantwortungsvollen KI

Neben diesen Tools und Frameworks sucht Google stetig nach neuen Wegen, die Arbeit an den KI-Prinzipien auszurichten und führt daher sogenannte “Modellkarten” ein. Diese sollen praktische Informationen über die Leistung und Grenzen von Modellen liefern, um Entwicklern zu helfen, bessere Entscheidungen darüber zu treffen, welche Modelle sich für welchen Zweck eignen und wie sie verantwortungsbewusst eingesetzt werden können.

Wollen auch Sie zu besseren und nachvollziehbaren Machine Learning Modellen kommen? Dann kommen Sie auf uns zu und wir erschließen die Möglichkeiten der Google Cloud Explainable AI für Sie.