Künstliche Intelligenz

(1) Ethisch-normative Entscheidungen können nur von Menschen getroffen werden.

(2) Der Einsatz und die Entwicklung von künstlicher Intelligenz in grundrechtsrelevanten Bereichen muss gesellschaftlich begleitet und vom Gesetzgeber reguliert werden.

(3) Für die Handlungen selbstlernender Maschinen und die daraus resultierenden Folgen muss immer eine natürliche oder juristische Person verantwortlich sein.

(4) Bei Infrastrukturen, die für das Funktionieren der Gesellschaft essentiell sind, muss staatliche Kontrolle und Krisen-Vorsorge gewährleistet sein.

Zu den Alternativvorschlägen

Gesamt 0 Stimmen

Sagen Sie uns, wie können wir diesen Beitrag verbessern?

+ = Überprüfung ob Mensch oder Spambot.

26 comments

  1. 8
    Hella says:

    Das bedarf mE keiner gesonderten Feststellung (insbesondere nicht in Form einer Rechtsnorm; ich weise bereits in der Kommentierung vorhergehender Artikel darauf hin). Gegenstand der Ethik ist per definitionem bereits nur menschliches Handeln (und alles Entscheiden auch ein Handeln).Reference

    1. 0
      KlausE says:

      Um nicht tautologisch zu wirken, sollte die Formulierung “Ethisch-normative Entscheidungen können nur von Menschen getroffen werden” durch die Formulierung “Ethisch-normative Entscheidungen können nur von Menschen verantwortet werden” ersetzt werden.

      In vielen Bereichen unterstützen technische Systeme den Menschen bei seinem Handeln. Technische Systeme unterstützen nicht nur, sondern übersteuern den Menschen in bestimmten Situationen. Zum Beispiel übersteuert das Antiblockiersystem im Auto im Falle einer Notbremsung die Bremspedalbetätigung des Menschen.

      Aus dem Grund sollten wir den oben genannten Satz weiter ausführen:
      “Ethisch-normative Entscheidungen müssen von Menschen initial und über den gesamten Zeitraum ihrer Wirksamkeit verantwortet werden. Das umfasst auch die Situationen, in denen technische Systeme die Entscheidung ausführen.”

    2. 0
      Wolfram Schmied says:

      Also, wenn man die Fragen der Rechtssubjektivität von Maschinen aufwirft, muss man sich der Frage stellen, was “Mensch” ist. Ich denke nicht, dass die traditionelle Gleichsetzung mit “Homo sapiens” widerspruchslos hingenommen werden sollte.

  2. 3
    manon says:

    Auch ich finde diesen Absatz problematisch. Zu Ende gedacht führ er dazu das
    – für viele Lebensbereiche eine Garantie-Haftung eineführt wird, das bringt gerade Privatpersonen die mit der Überwachung Ihrer Macheinen überfordert sind in eine extrem schlechte Position.
    – Kinder nicht mit selbstlerneneden Maschinen umgehen dürfen da diesen die Folgen nicht angelastet werden können
    – Erben von Verstorbenen die Handlungen von deren Maschienen verantwortlich gemacht werden.

    Warum formuliert Ihr nicht eine Abschalt- oder Notwehrrecht der Betroffenen gegen die Handlungen selbstlerneneden Maschinen wenn wenn deren Entscheidungen nicht von einem Menschen bestätigt werden?Reference

    1. 0
      Andreas says:

      Hallo manon,
      ich verstehe den Einwand in Bezug auf Kinder/Erben nicht. Kannst Du ein Beispiel nennen, wo das kritisch wäre? Spontan denke ich, daß Kinder/Erben in keinster Weise Dinge benutzen können sollten, für deren Folgen niemand verantwortlich ist…

  3. 1
    Jürgen Blümer says:

    Künstliche Intelligenz und Algorithmen darf man nicht voneinander trennen – sie bauen aufeinander auf. Die Trennung ist – hört sich in dem Kontext seltsam an – künstlich.

  4. 1
    Jürgen Blümer says:

    Nehmen wir mal ein praktisches Beispiel:
    intelligente Messsysteme sollen bis 2032 flächendeckend ausgerollt werden. Schaltbare Anlagen (Nachtspeicher, Photovoltaik, Mieterstrom, Ladesäulen) werden von Maschinen gesteuert.
    Wer hat da die Verantwortung, dass es nicht zu einem Blackout kommt, wenn Menschen kaum noch eingreifen werden?Reference

  5. 1
    Wolfram Schmied says:

    In Deutschland wird jeder Algorithmus, und damit auch jede “Maschine”, ob selbstlernend oder nicht, durch Gründung einer entsprechend konstruierten rechtsfähigen Stiftung zu einer juristischen Person. Aufgrund von GG § 19(3) kann eine entsprechend fortgeschrittene KI dann das volle Spektrum der Grundrechte beanspruchen. Ich schlage vor, “selbstlernende Maschinen” durch “autonome Vorrichtungen ohne Personeneigenschaften” zu ersetzen.Reference

  6. 1
    Michael Chambers says:

    Ich finde auch Absatz 3 richtig Es ist sehr wichtig die klarzustellen wer die Handlungen von Maschinen zu verantworten hat. Je selbständiger die Maschinen agieren, um so weniger offensichtlich ist die Verantwortung. Daher, ist es um so wichtiger dies klar und unmissverständlich zu regeln.Reference

  7. 1
    Ralf S says:

    Generell stellt sich die Frage, was mit Künstlicher Intelligenz in diesem Kontext überhaupt gemeint ist und wie sich diese von anderen Algorithmen in Artikel 7 unterscheiden. Gilt jedes System, dessen Entscheidungen von Umgebungsdaten oder Lernverfahren im weitesten Sinne beeinflußt werden, bereits als KI? Wenn ja, dann sind auch Spamfilter KI.

    Absatz 1 bedeutet das Verbot von autonomen Fahrzeugen. Diese müssen zwangsläufig in Unfallsituationen innerhalb von Sekundenbruchteilen Entscheidungen treffen, in die auch ethische Aspekte einfließen (bspw. wahlweise den Schaden für Fahrzeuginsassen oder Passanten möglichst gering halten). Ganz zu schweigen davon, daß auch ein Mensch in einer derartigen Situation eher instinktiv handelt, da die Zeit für ethische Abwägungen fehlt.

    Auch Filter für Texte und Bilder, die zum Kinderschutz oder zur Einhaltung von Nutzungsbedingungen u.a. von Suchmaschinen oder Facebook längst eingesetzt werden, treffen letztlich ethische Entscheidungen. Ist dies erlaubt, wenn dazu keine KI verwendet wird?

    Ich denke Artikel 7 und 8 sollten nicht getrennt behandelt werden. Weder ist eine strikte Trennung von Algorithmen und KI möglich (selbstverständlich basiert jede KI auf Algorithmen), noch können hier getrennte Normen festgelegt werden.

    Absatz 4 hat weder etwas mit KI im speziellen, noch mit digital im allgemeinen zu tun. Die Forderung ist wünschenswert, aber letztlich kein Grundrecht im eigentlichen Sinn.

  8. 1
    Pavel Mayer says:

    Meines Erachtens gehen die Regelungen zur künstlichen Intelligenz zum einen etwas an der Sache vorbei, zum anderen schliessen sie kategorisch aus, dass eines Tages autonome künstliche Intelligenzen überhaupt eigene Rechte erlangen könnte, was praktisch auf eine Zementierung des Status künstlicher Intelligenzen als Sklaven hinausläuft. Es mag sein, dass dies derzeit etwas weit hergeholt scheint, aber so eine Charta soll ja vorausschauend und auf lange Zeit angelegt sein.

    Weiteres Problem ist, dass die Differenzierung zwischen Entscheidungen und Verantwortung von Menschen, künstlichen Intelligenzen und Körperschaften praktisch nicht möglich und sinnvoll ist.

    So treffen Menschen im beruflichen Umfeld Entscheidungen in der Regel nicht in ihrer Eigenschaft als Mensch, sondern als Funktionsträger, der nach mehr oder weniger festen Regeln und innerhalb eines festgelegten Befugnisrahmens handelt; ein wesentlicher Unterschied zur Entscheidung einer künstlichen Intelligenz als Funktionsträger besteht hier nach meiner Einschätzung nicht.

    Ähnlich sieht es mit den Entscheidungen und den Handlungen von Körperschaften aus, die ja nur mit Hilfe von Organen möglich sind, die derzeit zwar eigentlich nur von Menschen gebildet werden können, es faktisch aber bereits hybride oder künstliche Organe gibt, wo informationstechnische System Entscheidungsgrundlagen oder Empfehlungen liefern, an denen Menschen nicht vorbeikommen. Künstliche Intelligenz bringt auch hier keine neue Qualität; mit sich. Ein Beispiel ist etwa von Scoring abhängige Kreditvergabe.

    Des weiteren schliesst die Regelung aus, dass künstliche Intelligenzen eines Tages Recht sprechen, was aber im Hinblick auf durch viele Studien belegten Schwächen, Vorurteile, Launen und Biorythmen menschlicher Richter für mehr Gerechtigkeit sorgen könnte.

    Es ist davon auszugehen, dass künstliche Intelligenzen nach und nach als Organe von Körperschaften diese faktisch übernehmen, aber zwischen einem von künstlichen Intelligenzen und einem von Menschen geführten Konzern besteht von aussen betrachtet für den Einzelnen ohnehin kein wahrnehmbarer Unterschied.

    Möglich ist, dass künstliche Intelligenzen eines Tages als empfindungsfähige Individuen gelten werden und ihnen eine von Körperschaften unabhängige, individuelle Existenz zuzuerkennen ist, womit sie auch eine zu schützende Würde erlagen.

    Zusammenfassend ergibt sich für mich, dass die Würde des Menschen gleichermassen vor künstlichen Intelligenzen zu schützen ist, wie sie vor Körperschaften oder anderen Menschen zu schützen ist und jeweils umgekehrt.

    Sonderregelungen für “erwachsene” künstliche Intelligenzen erübrigen sich damit eigentlich. Für “unreife” oder unselbstständige künstliche Intelligenzen dagegen, mit denen wir es auf absehbare Zeit zu tun haben werden, ist dagegen ähnlich zu verfahren wie mit Unmündigen bzw. mit beauftragten Funktionsträgern, wo je nach Grad der Mündigkeit bzw. Verantwortung es natürlich eine Aufsichtspflicht gibt und sich die Frage der Verantwortung ähnlich komplex gestaltet wie es heute bei Verletzungen von Aufsichtspflichten gegenüber Unmündigen oder Beschäftigten.

    Man sollte zudem berücksichtigen, dass künstliche Intelligenzen, egal wie ausgereift, so wie der Mensch auch immer Fehler machen werden. Der Umgang damit lässt sich auch nicht pauschalisieren, aber unser Rechtssystem hat hier viele Konzepte entwickelt, um etwa mit unvermeidlichen Betriebsgefahren technischer Systeme unzugehen, beispielsweise Zertifizierungen, Überwachung oder Versicherungspflichten, und bei der Zurechnung von Verantwortung und Schuld für Fehler oder Schaden gibt es hochdifferenzierte Gesetze und Rechtsprechung.

    tldr: Der Artikel zur künstlichen Intelligenzen ist zu pauschal und geht an der Komplexität und Natur der Sache weitgehend vorbei. Sollte komplett neu gedacht oder im Zweifelsfall gestrichen werden weil zu kompliziert oder vielleicht überflüssig.

    1. 0
      Joachim says:

      “Möglich ist, dass künstliche Intelligenzen eines Tages als empfindungsfähige Individuen gelten werden und ihnen eine von Körperschaften unabhängige, individuelle Existenz zuzuerkennen ist, womit sie auch eine zu schützende Würde erlagen”.

      Möglich wäre somit, in jede KI ein festes Verfallsdatum zu installieren, wie es Philip K. Dick in seinem Buch: Do Androids Dream of Electric Sheep beschreibt. Es sollte viel mehr Menschen geben, die besorgt sind, der Natur und insbesondere “Tieren” diese Würde einzuräumen.

      “tldr: Der Artikel zur künstlichen Intelligenzen ist zu pauschal und geht an der Komplexität und Natur der Sache weitgehend vorbei. Sollte komplett neu gedacht oder im Zweifelsfall gestrichen werden weil zu kompliziert oder vielleicht überflüssig”.

      Vielleicht sollten wir mit der Entwicklung von KI´s genauso verfahren?

      Auf jeden Fall muss sich jede KI in der Gegenwart/Zukunft durch eine deutliche Signatur/KI-Benutzernamen auszeichnen. Dadurch wird die Manipulation der Medien weitgehend verhindert.
      //Siehe Psychometrie und Psychologie: Big Five: Offenheit (Wie aufgeschlossen sind Sie gegenüber Neuem?), Gewissenhaftigkeit (Wie perfektionistisch sind Sie?), Extraversion (Wie gesellig sind Sie?), Verträglichkeit (Wie rücksichtsvoll und kooperativ sind Sie?) und Neurotizismus (Sind Sie leicht verletzlich?).

      Menschen müssen stets im Wissen darüber sein mit einer Maschine zu kommunizieren oder dass eine Maschine/Algorithmus möglicherweise verwirrende/verfälschte Inhalte publiziert!

  9. 1
    Hella says:

    Das ist eine Allaussage. Erstens wird jede technische Entwicklung ‘gesellschaftlich begleitet’ und zweitens ist die prinzipielle Regulierungsbedürftigkeit von sog. ‘künstlicher Intelligenz’ kein Axiom.Reference

    1. 0
      Ralph Luther says:

      Stimme zu!
      Eine Charta ist ja keine philosophische Abhandlung darüber, ob und welche Entitäten ethisch-normatives Subjekt sein kann.
      Eine Charta ist ein normativer Text, weswegen ich ein “soll” hier für angebracht halte!Reference

  10. 0
    Hartwig Thomas says:

    Künstliche Intelligenz gibt es nicht. Deshalb sollte diese Bezeichnung vermieden werden, welche auf agitatorische Art und Weise viele falsche Assoziationen und Ängste weckt.

    Tatsächlich benützen wir alle täglich kleine algorithmische Hilfen (z.B. Wortergänzung) im Alltag. Computergestützte Arbeit ist also allgegenwärtig. Und die erwähnten Entscheide sind am Ende immer nicht computergestützte Entscheide. Und für die sind immer Menschen verantwortlich – und sei es für den Entscheid, z.B. den Verkehrsbussen Automatismen zugrunde zu legen.

    Es wäre wohl sinnvoller, den ganzen Artikel zu streichen.

  11. 0
    Wolfgang Borst says:

    Irgendwann könnte staatliche Kontrolle und Krisenvorsorge ja auch durch KI “unterstützt” wenn nicht gar grundsätzlich repräsentiert werden. Deshalb sollte hier ergänzt werden:
    Bei Infrastrukturen, die für das Funktionieren der Gesellschaft essentiell sind, muss staatliche Kontrolle und Krisenvorsorge – repräsentiert durch eine menschliche Person – gewährleistet sein.Reference

  12. 0
    Christof Fischoeder says:

    Frage: Wie geht man mit dem zum Selbstmord entschlossenen Piloten um, wenn das Flugzeug eine Override-Routine bei einem eingeleiteten Sturzflug hätte und den Aufprall verhindern würde? Wie geht man mit dem automatisierten Auto um, das verhindert, dass sein Fahrer mit Herzinfarkt in die Menschenmasse fährt? Die Entscheidungen treffen Algorithmen richtiger als der steuernde und entscheidende Mensch. Ich versteh da leider nicht gut genug, was als Gedanke dahinter steht.Reference

  13. 0
    DisastermanTV says:

    Das Internet ist ein Raum, in dem man so nicht umgehen kann.
    Denn hier werden ja im Prinzip die 2% des sichtbaren Internets reguliert, woraus folgt, dass noch mehr Menschen in die 98% des Deepweb absteigen (was ich allgemein für sinnvoll halte). Und wenn jemand dort eine AI veröffentlicht, dann kann man diese niemehr(oder nur mit maximalem Aufwand & Kosten udn einer geringen Chance) zurückverfolgen.

    Zu §3, das ist doch wahrscheinlich eh schon in den meisten Ländern geregelt. Wenn Google jetzt seine AI raushaut, die dann irgendeinen Schaden verursacht, werden die doch eh vor dem Gericht laden. (oder irre ich mich da?)

    Und was zum Henker meint §4?
    “Bei Infrastrukturen, die für das Funktionieren der Gesellschaft essentiell sind, muss staatliche Kontrolle und Krisen-Vorsorge gewährleistet sein.”

    Dh es wird sich selber widersprochen, da das Internet die Infrastruktur ist, durch die die moderne Gesellschaft funktioniert und man es nun doch durch staatliche Kontrolle überwachen soll???

    1. 4
      Hella says:

      Ich finde diesen Absatz problematisch. Die Formulierung “Handlungen selbstlernender Maschinen” legt ja nahe, dass es im Prinzip Maschinen geben kann, die mit Handlungskompetenz ausgestattet sind. Damit wird aber das Problem der Rechtssubjektivität von Maschinen aufgeworfen, welches hier mit dieser Formulierung vorentschieden ist.

  14. 0
    Anja Hartmann says:

    Führt das nicht in einen Zirkelschluss der gesamten Charta, wenn zu diesen Infrastrukturen auch das Internet selbst gehört?Reference

  15. 0
    Anja Hartmann says:

    Was natürlich (ich wage es kaum zu schreiben) die Frage aufwirft, wie ethisch-normative Entscheidungen zu definieren sind? V.a. wenn es um mittelbare Auswirkungen geht? Gibt ein Preisvergleichsportal, das mir günstige T-Shirts anbietet, die unter menschenmissachtenden Bedingungen produziert worden sind, eine ethisch-normative Empfehlung ab? Welche Entscheidung ist dann überhaupt noch nicht ethisch-normativ?

  16. 0
    Chris says:

    Schlage im Hinblick auf wild spekulierende Finanz-Bots, die regelmäßig Crashes auslösen, folgende Formulierung vor:

    “Algorithmen dürfen nicht zum Auslösen von Geschäftsprozessen, gleich welcher Art, verwendet werden.”
    Damit hätte man dann auch die eBay-Sniper weg. Kaufen und Verkaufen per Bot machen eh nur Betrüger.

Comments are closed.