30.01.2018

Die Videos der Roboter “Atlas” und “Handle” von Boston Dynamics haben für Furore in der Netzgemeinde gesorgt und bestärken kritische Menschen in ihrer Einschätzung der Technologie. Ein anderer Gesichtspunkt sind die Verantwortlichkeiten für die Haftung bei Unfällen mit Systemen des autonomen Fahrens. Deshalb wird es notwendig sein, ethische Aspekte und die Grenzen der Technologie zu diskutieren. Als Grundlage für den Diskurs ist es hilfreich, das Konzept von KI aus eher technisch-prozessualer Sicht zu betrachten. 

Künstliche Intelligenz ist autonome Prozess-Automation

Abstrakt gesehen ist KI die Kombination von Analysen, Problemlösungen und autonomer Automation auf der Grundlage von Erfahrungen und Daten. Aus dieser Perspektive ist KI pure Prozess-Automation. Damit ist ein System aber noch nicht selbstlernend, was deutlich wird, wenn man Systeme wie Alexa oder Siri betrachtet. Deren Intelligenz wird durch eine ständig wachsende Datenbank gespeist, die allerdings von Menschen gepflegt wird. Dahingegen ist Google Now durchaus ein selbstlernendes System, dass dem Nutzer proaktiv Informationen bereitstellt, nach denen dieser vermeintlich hätte suchen müssen. Das kann beispielsweise ein Termin oder die beste Option für den täglichen Heimweg sein. Um einen Diskurs über die Folgen von künstlicher Intelligenz führen zu können, sollte eine präzise Unterscheidung zwischen den Ausprägungen der Technologie erfolgen.