Die Vermessung der Zukunft

Wenn wir wissen wollen, was morgen ist, reicht ein Blick in den Kalender. Doch für einen weiteren Blick in die Zukunft braucht es mehr. Klar ist aber, dass Wissenschaft und Technik, Roboter und Computer eine Hauptrolle spielen werden.

Von Herbert Schicho

Der Blick in die Zukunft hat die Menschen schon immer interessiert. Die alten Griechen pilgerten nach Delphi, die Römer beobachteten den Vogelflug und auch Literaten aller Epochen entwarfen immer wieder künftige Welten. Mittlerweile sind von Jules Vernes damaligen Fantasien viele bereits Realität und Hollywood hat das Monopol auf die Geschichten aus der Zukunft übernommen. In den Filmen haben die Roboter längst die Weltherrschaft errungen, die Menschen werden in der Matrix gefangen gehalten oder werden mit maschineller Hilfe Superhelden a la Ironman. Solche Szenarien machen aber auch Angst vor der Zukunft, doch wie bedrohlich ist sie wirklich. Eine Antwort darauf liegt in der Logik der Algorithmen. Die meisten von uns kennen den Algorithmus ja nur aus dem Mathematikunterricht in der Oberstufe.

Die Details wurden gleich vergessen, nur der Begriff hat sich irgendwie eingeprägt. Wohl auch deswegen, weil er in unserer modernen digitalen Welt zu einem Schlüsselbegriff wurde. Eigentlich sind Algorithmen Handlungsanleitungen — Regeln, damit man ein Problem in endlich vielen genau definierten Einzelschritten lösen kann. Klingt ein bisschen nach Computerprogramm … und genau deswegen haben Algorithmen in der digitalen Welt auch ihren Siegeszug angetreten. Algorithmen können nun Schrift, Sprache und Muster fast so gut erkennen wie Menschen und viele Aufgaben sogar besser lösen. Sie beginnen, Inhalte von Fotos und Videos zu beschreiben. Schon jetzt werden 70 Prozent aller Finanztransaktionen von Algorithmen gesteuert und digitale Zeitungsnews zum Teil automatisch erzeugt. Überall werden Algorithmen mittlerweile verwendet.

Algorithmen entscheiden immer selbstständiger

Der nächste Schritt sind selbstlernende Algorithmen. Sie sind die Basis für künstliche Intelligenz. Die Technologie basiert darauf, dass eine Software mit Daten trainiert wird, um ein bestimmtes Problem später selbstständig und mit eigener Herangehensweise lösen zu können. „Überall werden Algorithmen mittlerweile verwendet. Und sie werden immer klüger, je mehr sie eingesetzt werden und lernen Menschen immer besser einzuschätzen und ihr Verhalten vorherzusagen. Was bedeutet das für die Zukunft, wenn unser Leben immer mehr von den Empfehlungen und Entscheidungen dieser Systeme beeinflusst wird?“, fragt sich Markus Hengstschläger, wissenschaftlicher Leiter des oö. Think Tanks „Academia Superior“. Er hat gemeinsam mit Studenten dieses Thema durchdiskutiert, heute Abend wird es beim 9. Surprise Factors Symposium in Gmunden ebenfalls auf der Tagesordnung stehen.

Wobei für Hengstschläger klar ist, dass immer Menschen für die Programmierung, für den gesetzten Rahmen und die sich daraus ergebenden Entscheidungen verantwortlich sind. Denn die Maschine selbst kann es nicht sein. Und: „Wir dürfen keine Technologie einsetzen, die wir nicht mehr verstehen, deren Entscheidungen und Handlungen für den Menschen nicht mehr vorhersehbar sind. Diese Schlussfolgerungen fassten die Studierenden“, so Hengstschläger. Die Systeme haben kein eigenes Bewusstsein. Kategorien wie „Moral“ oder „Ethik“ sind keine Kriterien, die sie selbstständig entwickeln können. Eine der großen gesellschaftlichen Aufgaben, vor der die Menschheit steht, ist es, den Rahmen zu definieren, innerhalb dessen die Maschinen selbstständig agieren dürfen und welchen Prinzipien Algorithmen zwingend zu folgen haben.

Programmierung wirft ethische Fragen auf

„Eine der Aufgaben der Politik liegt darin, den technologischen Fortschritt derart zu verlangsamen, dass der Mensch noch mitkommen kann. Die Politik muss überprüfen, ob das, was technisch machbar ist, auch wirklich sinnvoll ist. Und im Zweifel auch gegensteuern“, formuliert Markus Hengstschläger einen Appell. Und auch ethischen Fragen sollten vorab diskutiert werden. Stellen Sie sich vor die Bremsen versagen. Soll das Auto das Kleinkind am rechten Fahrbahnrand überfahren oder gegen einen Betonblock auf der linken Seite rasen und damit den Lenker in Lebensgefahr bringen. Dies mag theoretisch klingen, schließlich konnte der Lenker bisher keine rationale Entscheidung treffen, sondern handelte je nach eigener Intuition. Intelligente Autos der Zukunft werden voraussichtlich über ausreichend Rechenleistung verfügen, um die Folgen eines Crashs vorherzusagen und die Situation genau zu analysieren.

Die Autos würden dann entscheiden, wer leben darf und wer sterben muss. Diese Entscheidung muss vorab – von Menschen – programmiert werden. Ein internationales Forscherteam hat analysiert, welche Kriterien Menschen für diese Entscheidung wählen. Die Daten wurden auf der frei zugänglichen Homepage moralmachine.mit.edu gewonnen, auf der man verschiedene Unfallszenarien durchspielen kann (ausprobieren lohnt sich). Laut den Forschern haben bereits Millionen Menschen weltweit an dem Experiment teilgenommen. Ein Ergebnis: Die meisten Testpersonen entscheiden sich eher dafür, möglichst viele Leben zu retten. Alter, Geschlecht oder soziale Position spielen in diesen Fällen eine untergeordnete Rolle.

Das ist zumindest eine kleine Hilfestellung für jene Techniker, die diese Maschinen programmieren müssen. Für Hengstschläger ist auch wichtig, dass Entscheidungen nachvollzogen werden können. Algorithmen müssen „sich erklären können“. Nur so könne auch im Vorhinein abgeschätzt werden, wie sich ein System in einer bestimmten Situation entscheiden und welche Handlungen es setzen wird. Hier braucht es einen klaren Rahmen. Und hier kommt die Politik ins Spiel.

Wahlbeeinflussung per Mausklick

Aber die Politik hat derzeit ein anderes Problem mit den Algorithmen. Egal ob die Brexit-Abstimmung oder der Sieg von Donald Trump bei der Präsidentschaftswahl, bei fast allen Wahlen in jüngster Zeit wurde danach mit Manipulationen via Facebook spekuliert. Hintergrund ist, dass Menschen mithilfe ihrer Aktivitäten auf sozialen Plattformen, wie Facebook, leicht charakterisierbar sind. Ein Computeralgorithmus kann aus scheinbar unverfänglichen Informationen sehr viel intimere Charaktereigenschaften ableiten. Er kann dadurch auf politische Ansichten, Charaktereigenschaften, IQ, Religion und sexuelle Orientierung schließen.

Damit können Botschaften auf die Charaktereigenschaften einer Person individuell abgestimmt werden: inhaltlich, aber auch mit unterschiedlichen Bildern und Farben. Der Mann, der einen solchen Algorithmus entwickelt hat, heißt Michal Kosinski — er wird heute Abend das Hauptreferat beim „Surprise Factor Symposion“ in Gmunden halten. Für den Datenwissenschafter von der Stanford University ist klar, dass Algorithmen keine Wahlen gewinnen, sondern nur ein Werkzeug sind, um politische Botschaften zielsicher absetzen zu können. Und für ihn ist klar, dass sich der Zug nicht aufhalten lässt: „Wir sollten mehr darüber diskutieren, wie wir unsere Gesellschaft, Kultur, Gesetze und Technologie in Zukunft organisieren müssen, wenn es keine Privatsphäre mehr gibt, statt über die Aufrechterhaltung von Privatsphäre zu diskutieren.“

Für Hengstschläger ist eine Antwort auf diese Fragen auch Bildung. Nur wer gelernt hat, Google-Suchergebnisse, Facebook-Postings usw. hinsichtlich ihrer Quellen und Motive zu hinterfragen, könne Fakten von Fake unterscheiden. Und alle haben hier etwas beizutragen: „Die Wissenschaft muss Wissen schaffen und erklären; die Medien müssen dieses Wissen kommunizieren und zu Information machen; und die Bürger haben die Pflicht, sich zu informieren und sich, darauf basierend, politisch zu entscheiden.“

Am Samstag wird in Gmunden diskutiert

Wie können wir uns auf diese Zukunft vorbereiten und wo müssen wir heute Grenzen ziehen? Schafft der technologische Fortschritt Gestaltungsspielräume oder bewirkt die zunehmende „Vermessung der Zukunft“ gar das Gegenteil? Diese Fragen stellt die „Academia Superior – Gesellschaft für Zukunftsforschung“ heute Abend im Toscana Congress Zentrum Gmunden beim 9. Surprise Factors Symposium (Beginn ist ab 19 Uhr). Internationale Experten — darunter auch Nadia Magnenat Thalmann (r.) und Susanne Gaschke (l.) — diskutieren mit dem wissenschaftlichen Beirat des Think Tanks unter der Leitung von Markus Hengstschläger über die Zukunft der Menschheit.

Alle Informationen unter: www.academia-superior.at

Wie ist Ihre Meinung?