Wirtschaft

Megatrend der vernetzten Welt

Bilderkennungssysteme identifizieren im Auto Straßenschilder oder sortieren Urlaubsfotos im Smartphone nach bestimmten Motiven, Sprachassistenten verstehen unsere gesprochenen Fragen und erleichtern die Suche nach Informationen: Diese wenigen Beispiele geben einen Eindruck, in welchem Maße unser Alltag schon heute beherrscht wird von Computerprogrammen, die der menschlichen Intelligenz so ähnlich sind, dass sie diese in bestimmten Anwendungen ersetzen können.


 

Über kurz oder lang werden schlaue Roboter und Computer Autos steuern, Chirurgen assistieren, Häuser bauen und Steuererklärungen prüfen. Dahinter steckt Künstliche Intelligenz, eine der spannendsten Entwicklungen der Digitalisierung und nach Ansicht zahlreicher Experten ein ganz wesentlicher Treiber für Wirtschaftswachstum.

Bilderkennungssysteme identifizieren im Auto Straßenschilder oder sortieren Urlaubsfotos im Smartphone nach bestimmten Motiven, Sprachassistenten verstehen unsere gesprochenen Fragen und erleichtern die Suche nach Informationen, Algorithmen begreifen, welche Musik wir gern hören und schlagen uns passende Songs vor oder erkennen Krankheitssymptome und ermitteln die richtigen Behandlungsmethoden: Allein schon diese wenigen Beispiele geben einen Eindruck davon, in welchem Maße unser Alltag schon heute beherrscht wird von Computerprogrammen, die der menschlichen Intelligenz so ähnlich sind, dass sie diese in bestimmten Anwendungen ersetzen können. Die Rede ist von „Künstlicher Intelligenz“ (KI), einem interdisziplinären Forschungsgebiet innerhalb der Computerwissenschaften, das je nach Zielrichtung Lösungen aus Mathematik, Informatik, Sprach- und Bilderkennung sowie Robotik verarbeitet. Den Grundstein für das, was wir heute KI nennen, legte schon im Jahr 1936 Alan Turing. Damals bewies der britische Mathematiker durch seine Theorien, dass eine Rechenmaschine – eine sogenannte „Turingmaschine“ – in der Lage wäre, kognitive Prozesse auszuführen, sofern diese sich in mehrere Einzelschritte zerlegen und durch einen Algorithmus darstellen lassen. 20 Jahre später trafen sich Wissenschaftler am Dartmouth College im US-Bundesstaat New Hampshire zu einer Konferenz, bei der sie die Ansicht äußerten, dass Aspekte des Lernens sowie andere Merkmale der menschlichen Intelligenz von Maschinen simuliert werden können. Der Programmierer John McCarthy schlug hierfür den Begriff „Künstliche Intelligenz“ vor. Während der Konferenz wurde mit dem „Logic Theorist “, der es schaffte, mehrere Dutzend mathematische Lehrsätze zu beweisen, auch gleich das erste KI-Programm der Welt geschrieben.

 

Gewaltige Technologiesprünge bei der Hard- und Software

Als 1997 die KI-Schachmaschine „Deep Blue“ der Firma IBM den amtierenden Schachweltmeister Garry Kasparov in einem Turnier bezwang, galt dies als historischer Erfolg der Maschinen in einem Bereich, der bislang vom Menschen dominiert wurde. Kritiker gaben jedoch zu bedenken, dass „Deep Blue“ nicht durch kognitive Intelligenz, sondern nur durch das Berechnen aller denkbaren Züge gewonnen habe. Ab dem Jahr 2011 ebneten gewaltige Technologiesprünge bei der Hard- und Software der KI den Weg in unseren Alltag. Seitdem ermöglichen es leistungsstarke Prozessoren und Grafikkarten in Computern, Smartphones und Tablets auch den normalen Verbrauchern, auf KI-Programme zuzugreifen. Insbesondere Sprachassistenten erfreuen sich großer Beliebtheit: Apples „Siri“ kam 2011 auf den Markt, 2014 stellte Microsoft die Software „Cortana“ vor und Amazon präsentierte 2015 Amazon Echo den Sprachdienst „Alexa“. Von nachhaltiger Wirkung war außerdem das Computerprogramm „Watson“ – es trat 2011 in Form eines animierten Bildschirmsymbols in einer US-amerikanischen TV-Quizshow an und gewann gegen die menschlichen Mitspieler. Damit stellte „Watson“ unter Beweis, dass es die natürliche Sprache versteht und schnell auf schwierige Fragen antworten kann. Bis heute demonstrieren immer wieder neue Beispiele die Leistungsfähigkeit von KI. So lieferte sich erst im Juni 2018 der „Project Debater“ von IBM mit zwei Debattiermeistern ein Rededuell über komplexe Themen – und wenige Wochen zuvor demonstrierte Google auf einer Konferenz, wie die KI „Duplex“ beim Friseur anruft und im Plauderton einen Termin vereinbart – ohne dass die Dame am anderen Ende der Leitung merkte, dass sie mit einer Maschine sprach.

 

 

Cyber Valley – eine der größten Forschungskooperationen Europas im Bereich der KI

Trotz jahrzehntelanger Forschung steht die Entwicklung der KI aber immer noch relativ am Anfang. Damit sie in sensiblen Bereichen wie dem automatisierten Fahren oder der Medizin eingesetzt werden kann, muss sie zuverlässiger und sicherer gegen Manipulationen werden. KI-Systeme sollen zudem lernen, ihre Entscheidungen zu erklären, damit Menschen sie nachvollziehen und die Denkweise der KI besser erforschen können. Zahlreiche Wissenschaftler wie beispielsweise der Bosch-Stiftungsprofessor Matthias Hein an der Universität Tübingen arbeiten an diesen Themen. Hein forscht im Bereich statistisches Lernen mit Anwendungen in der Bildverarbeitung und der Genetik. Dabei liegt sein Schwerpunkt auf der Entwicklung robuster und erklärbarer Lernverfahren. Ein konkretes Beispiel ist die Entwicklung automatischer Entscheidungssysteme, bei denen durch maschinelle Lernverfahren sichergestellt ist, dass sie keine diskriminierenden Entscheidungen treffen können. Dies ist heute zum Beispiel der Fall, wenn das System einen Kredit eher an einen Mann vergibt als an eine Frau. „Dieses Beispiel zeigt, dass maschinelle Lernverfahren einen wichtigen gesellschaftlichen Beitrag leisten können“, so Hein. Bosch und die Universität Tübingen sind übrigens Mitinitiatoren des im Dezember 2016 ins Leben gerufenen Cyber Valley. Im Rahmen dieses Verbundes verstärken seitdem das Max-Planck-Institut für Intelligente Systeme, das Land Baden-Württemberg, die Universitäten Stuttgart und Tübingen sowie die Unternehmen Bosch, Daimler, Porsche, BMW, ZF Friedrichshafen und Facebook die Forschung und Entwicklung auf dem Gebiet der KI. Als Kernelemente des Cyber Valley wurden neue Forschungsgruppen, Lehrstühle und eine International Max Planck Research School etabliert, welche die bestehenden Aktivitäten miteinander verbinden. Erklärtes Ziel von Cyber Valley ist es, die Ergebnisse der Grundlagenforschung rasch zur Anwendung zu bringen – etwa indem Forscher unterstützt werden, ihre Erkenntnisse in Start-ups selbst zu kommerzialisieren. Vorbild ist die US-amerikanische Universität Stanford, die als Keimzelle des Silicon Valley respektive der digitalen Revolution gilt.

KI ist gesamtgesellschaftliche Aufgabe

Es besteht kein Zweifel daran, dass KI unseren Alltag, unser Leben, unsere Arbeit und die Gesellschaft verändern wird. Allerdings scheiden sich bei kaum einem anderen Thema derart die Geister. Unklare Vorstellungen und Definitionen davon, was sie kann und nicht kann und ob sie eher Chance oder Bedrohung ist, tragen nach Ansicht des Bundesministeriums für Wirtschaft und Energie ihren Teil zu dieser polarisierten Debatte bei. Wie eingangs schon erwähnt, werden mit KI auf der einen Seite große Hoffnungen verbunden – beispielsweise ein Straßenverkehr ohne Unfälle und Staus, die Entlastung des Menschen von gefährlichen und monotonen Arbeiten oder eine verbesserte medizinische Diagnostik beispielsweise in der Krebstherapie. Auf der anderen Seite warnen Skeptiker und Gegner mit düsteren Zukunftsprognosen vor einer Herrschaft superintelligenter Roboter und Maschinen über den Menschen. Mehr denn je ist daher in der aktuellen Situation eine Verständigung darüber erforderlich, wie die KI zukünftig in Deutschland sinnvoll für den Menschen genutzt werden soll. Die Bundesregierung hat deshalb erst im November 2018 eine umfassende nationale Strategie vorgelegt. Besagte Strategie verfolgt einen ganzheitlichen Ansatz und umfasst insgesamt zwölf Handlungsfelder. Im Fokus stehen dabei folgende Ziele: Forschung in Deutschland und Europa stärken, Transfer von Forschungsergebnissen in die Wirtschaft beschleunigen, Verfügbarkeit von Fachkräften und Experten fördern, Strukturwandel in Unternehmen und am Arbeitsmarkt gestalten, Rahmenbedingungen für die ethische Anwendung der KI schaffen, europäische und internationale Zusammenarbeit zu KI-Themen vertiefen und gesellschaftliche Dialoge zu den Chancen und Auswirkungen anregen. Zweifelsohne ist die KI-Strategie der Bundesregierung löblich. Es gibt aber auch Kritiker, die beklagen, dass sie viel zu spät kommt. „Die Regierung muss möglichst schnell die Grundlagen dafür schaffen, dass Unternehmen die KI in der Praxis einsetzen und testen können“, sagt Daniel Rebhorn, Geschäftsführer der auf die Entwicklung digitaler Geschäftsmodelle spezialisierten diconium GmbH mit Sitz in Stuttgart. „Wenn KI dem Menschen dienen soll, dann müssen wir es ihr auch erlauben“, führt Rebhorn weiter aus. Denn wenn sie zuverlässiger als jeder Arzt Diagnosen stellen würde, dann nur deshalb, weil sie Millionen von Daten abgleiche und dadurch die richtigen Schlüsse ziehen könne. Mit der neuen Datenschutzgrundverordnung habe die EU allerdings die KI auf Diät gesetzt, indem sie Daten zur Geheimsache erklärt. „Indes ziehen Big-Techs wie China dank liberaler Datengesetze an uns vorbei“, ergänzt Rebhorns Geschäftsführer-Partner Andreas Schwend. Wohin das führen könne, habe jüngst ein Ex-Google-Mitarbeiter mit der Gründung seines KI-Startups in China gezeigt. Möglich sei dies gewesen, weil er staatlichen Zugang zu über 300 Millionen Patientendaten bekommen habe, um sie für seine Forschung und ganz konkrete Anwendungen zu nutzen. „Europa kann sich einen Dornröschenschlaf nicht leisten“, warnt Schwend und fordert, dass Wirtschaft, Forschung und Regierung noch nachhaltiger zusammenarbeiten müssten. „Und zwar nicht nur als Lippenbekenntnis.“

 

Alles klar?

 

Vier Fachbegriffe rund um das Thema „Künstliche Intelligenz“

Algorithmen: Unter Algorithmus versteht man eine konkrete Handlungsvorschrift zur Lösung eines Problems. Algorithmen sind als mathematische Gleichungen angelegt und spielen insbesondere in der Informatik als Grundlage für Programmierungen eine große Rolle. Mittlerweile begegnen uns Algorithmen täglich – in der Freizeit wie auch bei der Arbeit. Wir finden sie in vielen technischen Geräten sowie in unserer elektronischen Kommunikation. So zeigen uns Algorithmen im Navi den kürzesten Weg, schlagen uns als Computergegner im Schach, kontrollieren unseren Satzbau in Office Word oder empfehlen uns einen passenden Partner beim Online-Dating.

Deep Learning: Maschinen das Denken beizubringen – klingt wie Science-Fiction, ist aber dank Deep Learning, zu Deutsch in etwa „tiefgehendes Lernen“, möglich. Dabei imitiert eine neue Art von Algorithmen das menschliche Lernen, indem sie sich an der Funktionsweise des menschlichen Gehirns orientiert. Deep Learning simuliert in der Maschine ein dicht verwobenes Netz aus einfachen Nervenzellen, das wie sein natürliches Vorbild aus Erfahrung lernt. Für die Erfahrung sorgt das Zuführen riesiger Datenmengen, wie zum Beispiel Bilder. In der Folge gelingt den Maschinen das, was Menschen fast nebenher erledigen: Sie erkennen Gesichter und verstehen Sprachen. Ob Cortana, Siri oder Skype – fast jeder nutzt heute Software, die auf Deep Learning beruht.

Neuronale Netze: Die Neurowissenschaft bezeichnet eine Ansammlung miteinander verbundener Nervenzellen als neuronales Netz. Jedes einzelne Netz verarbeitet Informationen und dient dem Lernen und Erinnern. Darauf beruhend, werden in der Informatik, Informationstechnik und Robotik Künstliche Neuronale Netze (KNN) entwickelt. Das Ziel ist es, die enormen Verarbeitungs- und Funktionsfähigkeiten von Gehirnen im Computer nachzukonstruieren. Während Hunderte oder Tausende künstliche Neuronen in übereinanderliegenden Schichten sitzen und über simulierte Leitungen verbunden sind, wird die oberste, als Sensor fungierende Schicht mit Daten gefüttert – zum Beispiel mit Bildern oder Geräuschen. Diese gibt die Informationen weiter und das Netzwerk sortiert sie. Die kontinuierliche Datenzuführung und -verarbeitung seitens des Computers führt bei der Maschine schließlich nach und nach zu einem Lernprozess (siehe auch Deep Learning).

Turing-Test: Bereits im Jahr 1950 vom britischen Mathematiker Alan Turing entwickelt, wird mit dem Turing-Test geprüft, ob eine Maschine das Denkvermögen eines Menschen hat. Beim Test chattet eine Versuchsperson mit einem Menschen sowie mit einem Computer und muss anschließend entscheiden, welcher der Gesprächspartner Mensch und welcher Maschine gewesen ist. Turing sah den Test für eine Maschine als bestanden an, wenn mindestens 30 Prozent der Versuchspersonen sie für einen Menschen hielten. Ob das eine Maschine bisher geschafft hat, ist allerdings nach wie vor unter Forschern umstritten. Internetnutzer begegnen einem von Turing abgeleitetem Test täglich im Netz: Zur Abwehr von Spam-Programmen müssen sie auf vielen Seiten eine angezeigte Buchstaben- oder Zahlenkombination eingeben. Damit beweisen die Nutzer, dass sie reale Menschen sind. Das Verfahren heißt CAPTCHA und steht für „completely automated public Turing test to tell computers and humans apart“.

Quelle: Bundesministerium für Wirtschaft und Energie

 

Artikel von www.top-magazin.de/stuttgart