Die Potenziale von KI sind unbestritten - und dennoch sind noch einige Fragen zu klären...Symbolbild: Gerd Altmann, Pixabay

Die Potenziale von KI sind unbestritten - und dennoch sind noch einige Fragen zu klären... Symbolbild: Gerd Altmann, Pixabay

Der Branchenverband Bitkom hat zur diesjährigen Hannover Messe 555 Unternehmen mit über 100 Mitarbeitern befragt und festgestellt, dass bisher nur zwölf Prozent der deutschen Industrieunternehmen bereits heute Künstliche Intelligenz (KI) im Zusammenhang mit Industrie 4.0 nutzen. Die Erwartungen an KI sind aber so groß, dass der Einsatz nun wohl exponentiell zunehmen dürfte. Vor allem erwarten die Industrieunternehmen, ihre Produktivität zu steigern, vorausschauende Wartung und Instandhaltung zu verbessern sowie eine Optimierung ihrer Produktions- und Fertigungsprozesse. Die Befragten gaben zudem an, dass sie 2019 rund fünf Prozent ihres Umsatzes in die Digitalisierung investieren wollen.

Die Hoffnungen richten sich auf die Realisierung von Smart Factories, in denen autonome Roboter Hand in Hand mit Menschen arbeiten, dabei niemals müde werden und sogar die Fehler ihrer menschlichen Kollegen rechtzeitig erkennen und für Korrekturen sorgen. Wie im Auto von Morgen soll KI in Robotern zusammen mit einer Unzahl von Sensorgen und Aktoren für eine autonome Aktion und Interaktion zwischen Maschinen und zwischen Menschen und Maschinen sorgen. Um dieses Ziel zu erreichen, müssen solche Systeme in Echtzeit große Datenmengen verarbeiten, Muster erkennen, Handlungsoptionen ableiten und umsetzen. Sie müssen also ähnlich wie KI heute schon in Wissenschaft, Medizin, Marketing und selbst für Juristen, zu vorgegebenen oder vorgefundenen oder gerade entstehenden Problemen Lösungen finden.

„Eine starke KI müsste nach ethischen, moralischen und sozialen Kategorien ihr Verhalten und ihre Entscheidungen verantwortungsvoll selbst steuern.“

Markus Dohm, Bereichsvorstand Academy & Life Care, TüV Rheinland

Wie stark wird KI unsere Arbeitswelt verändern?

Die aktuell verfügbaren KI-Anwendungen sind trotz Machine Learning noch nicht in der Lage, ihren durch den Algorithmus vorgegebenen Weg zu verlassen und zur Abwechslung einfach mal was anderes zu tun. Eine KI, die Experten für die Tätigkeit eines Roboters in einer Fertigungslinie programmiert haben, ist nicht fähig, einfach mal in einer anderen zu arbeiten. Wissenschaftler bezeichnen diese als schwache KIs – und träumen von starken KIs. Noch ist es niemand gelungen, eine KI zu programmieren, die die intellektuellen Fähigkeiten des Menschen auch nur annähernd simulieren kann. Eine starke KI müsste in der Lage sein, logisch zu denken, Entscheidungen auch tatsächlich wie ein Mensch zu fällen, also beispielsweise zwischen zwei gleich schlechten Alternativen abzuwägen. Sie müsste sich planvoll neue Wissensgebiete erschließen und sich systematisch selbst anlernen. Vor allem müsste sie in natürlicher Sprache selbständig Ideen formulieren können und alle ihre Kompetenzen in ein Wertesystem einordnen und einem höheren oder ferneren Ziel unterordnen können. Kurzum: Sie müsste nach ethischen, moralischen und sozialen Kategorien ihr Verhalten und ihre Entscheidungen verantwortungsvoll selbst steuern. Das bedeutet: Ohne den Faktor Mensch wird es bei aller Dynamik der technologischen Entwicklung in der digitalen Transformation auf absehbare Zeit nicht gehen.

Künstliche Intelligenz: Welche Rolle Ethik spielt...

Denn bereits bei heutigen Anwendungen mit schwacher KI stellen sich ethische Fragen. Was passiert, wenn eine KI durch Machine Learning diskriminierende Entscheidungen fällt? Bei Finanzdienstleistern sind KIs im Einsatz, sogar schon länger, als es Chatbots gibt. Mit der „falschen Adresse“ oder einem Schufa-Eintrag kann es schon länger passieren, dass eine Versicherung oder ein Kredit verweigert werden. Und wie soll sich ein autonomer und KI-basierter Roboter in einer Smart Factory verhalten, wenn er, vor zwei gleich schlechte Alternativen gestellt, in beiden Fällen einen menschlichen Kollegen verletzen würde? Mit solchen Fragen beschäftigte sich kürzlich ein Expertengremium der EU, das Ende 2018 seine ethischen Leitlinien zur Diskussion stellte und im April seine finale Version veröffentlichte. Bis Juni 2019 erarbeitet das Gremium eine Handlungsempfehlung für die EU. Nach allem, was bisher bekannt ist, greifen diese Leitlinien aber nicht weit genug.

Autonom, intelligent - Boston Dynamics und seine next-Generation-Roboter - Quelle: next Robotics

Sie beschreiben einen Weg, „den größtmöglichen Nutzen aus der KI erzielen und gleichzeitig die geringstmöglichen Risiken eingehen. Um sicherzugehen, dass wir auf dem richtigen Weg bleiben, brauchen wir einen auf den Menschen ausgerichteten („menschenzentrierten“) Ansatz für die KI …“. Das Gremium hat auch eine Checkliste mit Fragen für Anbieter von KI entwickelt, wie sie ihre Systeme sicher betreiben können. Leider fehlen Empfehlungen an die EU-Kommission, welche Mindestanforderungen und Sicherheitsauflagen sie den KI-Betreibern auferlegen sollten, damit der Mensch als Gestalter und Nutznießer der digitalen Transformation wirklich im Fokus bleibt. Denn eines ist klar: Eine wirtschaftlich oder aus Sicht von Behörden erfolgreiche KI werden Betreiber nicht ändern, nur weil sie ein wenig diskriminierend agiert.

Warum klare Regeln für den Einsatz von KI unerlässlich sind...

Hier müssen die EU und internationale Institutionen wie die UN klare Regeln aufstellen und anordnen, dass externe Institutionen die Einhaltung regelmäßig überprüfen dürfen. Eine notwendige Regel wäre beispielsweise, dass immer dann, wenn eine KI mit einem Menschen interagiert, diese als solche ausgewiesen wird und der menschliche Kollege beispielsweise durch Notausschalter immer am längeren Hebel sitzt. Oder im Falle, dass eine KI Entscheidungsbefugnisse erhält, muss der Mensch das Recht erhalten, eine natürliche Person wie beispielsweise den Betriebsrat oder eine andere verantwortliche Stelle im Unternehmen mit der Überprüfung einer KI-Entscheidung zu beauftragen.

Darüber hinaus müssen die Betreiber bei einer KI mit Machine Learning verpflichtet sein, ihre selbständig sich umschreibenden Algorithmen durch Testläufe zu überwachen. Bei einem KI-basierten Roboter sollten die Unternehmen schon aus Gründen der Betriebssicherheit ihre Algorithmen regelmäßig einer Prüfung unterziehen. Und weil es Menschen sind, die KI-Algorithmen schreiben, sollten diese durch Weiterbildung ihre Kompetenzen als Fachleute regelmäßig vertiefen müssen. Wie früher bei der Dampfmaschine können verheerende Unfälle passieren. Erst die regelmäßige Überprüfung durch den Vorläufer des Tüv Rheinland, dem früheren Dampfkesselüberwachungsverein DÜV, hat dazu geführt, dass technische Großanlagen, Fahrzeuge und Aufzüge zu sicheren Einrichtungen wurden. Ohne Überwachung durch unabhängige Dritte und lebenslange Weiterqualifizierung der menschlichen Fachkräfte wird es auch beim Einsatz von KI kaum gehen. Aru

Robotik - Bleiben Sie informiert

Sie interessieren sich für Robotik? Und suchen einen kostenlosen Infodienst, der Sie zuverlässig über die neuesten Entwicklungen in der Branche informiert? Mit unserem Robotik-Newsletter sind Sie immer informiert! Jetzt anmelden und kostenlos von exklusiven Hintergrundberichten, News, Interviews und Erklärinhalten zur professionellen Robotik profitieren!