Künstliche Intelligenz

(1) Ethisch-normative Entscheidungen können nur von Menschen getroffen werden.

(2) Der Einsatz und die Entwicklung von künstlicher Intelligenz in grundrechtsrelevanten Bereichen muss gesellschaftlich begleitet und vom Gesetzgeber reguliert werden.

(3) Für die Handlungen selbstlernender Maschinen und die daraus resultierenden Folgen muss immer eine natürliche oder juristische Person verantwortlich sein.

(4) Bei Infrastrukturen, die für das Funktionieren der Gesellschaft essentiell sind, muss staatliche Kontrolle und Krisen-Vorsorge gewährleistet sein.

21 Kommentare

  1. 5

    Das bedarf mE keiner gesonderten Feststellung (insbesondere nicht in Form einer Rechtsnorm; ich weise bereits in der Kommentierung vorhergehender Artikel darauf hin). Gegenstand der Ethik ist per definitionem bereits nur menschliches Handeln (und alles Entscheiden auch ein Handeln).Bezug

    1. 0
      KlausE schreibt:

      Um nicht tautologisch zu wirken, sollte die Formulierung “Ethisch-normative Entscheidungen können nur von Menschen getroffen werden” durch die Formulierung “Ethisch-normative Entscheidungen können nur von Menschen verantwortet werden” ersetzt werden.

      In vielen Bereichen unterstützen technische Systeme den Menschen bei seinem Handeln. Technische Systeme unterstützen nicht nur, sondern übersteuern den Menschen in bestimmten Situationen. Zum Beispiel übersteuert das Antiblockiersystem im Auto im Falle einer Notbremsung die Bremspedalbetätigung des Menschen.

      Aus dem Grund sollten wir den oben genannten Satz weiter ausführen:
      “Ethisch-normative Entscheidungen müssen von Menschen initial und über den gesamten Zeitraum ihrer Wirksamkeit verantwortet werden. Das umfasst auch die Situationen, in denen technische Systeme die Entscheidung ausführen.”

    2. 0
      Wolfram Schmied schreibt:

      Also, wenn man die Fragen der Rechtssubjektivität von Maschinen aufwirft, muss man sich der Frage stellen, was “Mensch” ist. Ich denke nicht, dass die traditionelle Gleichsetzung mit “Homo sapiens” widerspruchslos hingenommen werden sollte.

  2. 2

    Auch ich finde diesen Absatz problematisch. Zu Ende gedacht führ er dazu das
    – für viele Lebensbereiche eine Garantie-Haftung eineführt wird, das bringt gerade Privatpersonen die mit der Überwachung Ihrer Macheinen überfordert sind in eine extrem schlechte Position.
    – Kinder nicht mit selbstlerneneden Maschinen umgehen dürfen da diesen die Folgen nicht angelastet werden können
    – Erben von Verstorbenen die Handlungen von deren Maschienen verantwortlich gemacht werden.

    Warum formuliert Ihr nicht eine Abschalt- oder Notwehrrecht der Betroffenen gegen die Handlungen selbstlerneneden Maschinen wenn wenn deren Entscheidungen nicht von einem Menschen bestätigt werden?Bezug

  3. 2

    Das ist eine Allaussage. Erstens wird jede technische Entwicklung ‘gesellschaftlich begleitet’ und zweitens ist die prinzipielle Regulierungsbedürftigkeit von sog. ‘künstlicher Intelligenz’ kein Axiom.Bezug

  4. 1
    DisastermanTV schreibt:

    Das Internet ist ein Raum, in dem man so nicht umgehen kann.
    Denn hier werden ja im Prinzip die 2% des sichtbaren Internets reguliert, woraus folgt, dass noch mehr Menschen in die 98% des Deepweb absteigen (was ich allgemein für sinnvoll halte). Und wenn jemand dort eine AI veröffentlicht, dann kann man diese niemehr(oder nur mit maximalem Aufwand & Kosten udn einer geringen Chance) zurückverfolgen.

    Zu §3, das ist doch wahrscheinlich eh schon in den meisten Ländern geregelt. Wenn Google jetzt seine AI raushaut, die dann irgendeinen Schaden verursacht, werden die doch eh vor dem Gericht laden. (oder irre ich mich da?)

    Und was zum Henker meint §4?
    “Bei Infrastrukturen, die für das Funktionieren der Gesellschaft essentiell sind, muss staatliche Kontrolle und Krisen-Vorsorge gewährleistet sein.”

    Dh es wird sich selber widersprochen, da das Internet die Infrastruktur ist, durch die die moderne Gesellschaft funktioniert und man es nun doch durch staatliche Kontrolle überwachen soll???

  5. 0
    Wolfram Schmied schreibt:

    In Deutschland wird jeder Algorithmus, und damit auch jede “Maschine”, ob selbstlernend oder nicht, durch Gründung einer entsprechend konstruierten rechtsfähigen Stiftung zu einer juristischen Person. Aufgrund von GG § 19(3) kann eine entsprechend fortgeschrittene KI dann das volle Spektrum der Grundrechte beanspruchen. Ich schlage vor, “selbstlernende Maschinen” durch “autonome Vorrichtungen ohne Personeneigenschaften” zu ersetzen.Bezug

  6. 0
    Wolfgang Borst schreibt:

    Irgendwann könnte staatliche Kontrolle und Krisenvorsorge ja auch durch KI “unterstützt” wenn nicht gar grundsätzlich repräsentiert werden. Deshalb sollte hier ergänzt werden:
    Bei Infrastrukturen, die für das Funktionieren der Gesellschaft essentiell sind, muss staatliche Kontrolle und Krisenvorsorge – repräsentiert durch eine menschliche Person – gewährleistet sein.Bezug

  7. 0
    Michael Chambers schreibt:

    Ich finde auch Absatz 3 richtig Es ist sehr wichtig die klarzustellen wer die Handlungen von Maschinen zu verantworten hat. Je selbständiger die Maschinen agieren, um so weniger offensichtlich ist die Verantwortung. Daher, ist es um so wichtiger dies klar und unmissverständlich zu regeln.Bezug

  8. 0

    Generell stellt sich die Frage, was mit Künstlicher Intelligenz in diesem Kontext überhaupt gemeint ist und wie sich diese von anderen Algorithmen in Artikel 7 unterscheiden. Gilt jedes System, dessen Entscheidungen von Umgebungsdaten oder Lernverfahren im weitesten Sinne beeinflußt werden, bereits als KI? Wenn ja, dann sind auch Spamfilter KI.

    Absatz 1 bedeutet das Verbot von autonomen Fahrzeugen. Diese müssen zwangsläufig in Unfallsituationen innerhalb von Sekundenbruchteilen Entscheidungen treffen, in die auch ethische Aspekte einfließen (bspw. wahlweise den Schaden für Fahrzeuginsassen oder Passanten möglichst gering halten). Ganz zu schweigen davon, daß auch ein Mensch in einer derartigen Situation eher instinktiv handelt, da die Zeit für ethische Abwägungen fehlt.

    Auch Filter für Texte und Bilder, die zum Kinderschutz oder zur Einhaltung von Nutzungsbedingungen u.a. von Suchmaschinen oder Facebook längst eingesetzt werden, treffen letztlich ethische Entscheidungen. Ist dies erlaubt, wenn dazu keine KI verwendet wird?

    Ich denke Artikel 7 und 8 sollten nicht getrennt behandelt werden. Weder ist eine strikte Trennung von Algorithmen und KI möglich (selbstverständlich basiert jede KI auf Algorithmen), noch können hier getrennte Normen festgelegt werden.

    Absatz 4 hat weder etwas mit KI im speziellen, noch mit digital im allgemeinen zu tun. Die Forderung ist wünschenswert, aber letztlich kein Grundrecht im eigentlichen Sinn.

  9. 0
    Christof Fischoeder schreibt:

    Frage: Wie geht man mit dem zum Selbstmord entschlossenen Piloten um, wenn das Flugzeug eine Override-Routine bei einem eingeleiteten Sturzflug hätte und den Aufprall verhindern würde? Wie geht man mit dem automatisierten Auto um, das verhindert, dass sein Fahrer mit Herzinfarkt in die Menschenmasse fährt? Die Entscheidungen treffen Algorithmen richtiger als der steuernde und entscheidende Mensch. Ich versteh da leider nicht gut genug, was als Gedanke dahinter steht.Bezug

  10. 0
    Pavel Mayer schreibt:

    Meines Erachtens gehen die Regelungen zur künstlichen Intelligenz zum einen etwas an der Sache vorbei, zum anderen schliessen sie kategorisch aus, dass eines Tages autonome künstliche Intelligenzen überhaupt eigene Rechte erlangen könnte, was praktisch auf eine Zementierung des Status künstlicher Intelligenzen als Sklaven hinausläuft. Es mag sein, dass dies derzeit etwas weit hergeholt scheint, aber so eine Charta soll ja vorausschauend und auf lange Zeit angelegt sein.

    Weiteres Problem ist, dass die Differenzierung zwischen Entscheidungen und Verantwortung von Menschen, künstlichen Intelligenzen und Körperschaften praktisch nicht möglich und sinnvoll ist.

    So treffen Menschen im beruflichen Umfeld Entscheidungen in der Regel nicht in ihrer Eigenschaft als Mensch, sondern als Funktionsträger, der nach mehr oder weniger festen Regeln und innerhalb eines festgelegten Befugnisrahmens handelt; ein wesentlicher Unterschied zur Entscheidung einer künstlichen Intelligenz als Funktionsträger besteht hier nach meiner Einschätzung nicht.

    Ähnlich sieht es mit den Entscheidungen und den Handlungen von Körperschaften aus, die ja nur mit Hilfe von Organen möglich sind, die derzeit zwar eigentlich nur von Menschen gebildet werden können, es faktisch aber bereits hybride oder künstliche Organe gibt, wo informationstechnische System Entscheidungsgrundlagen oder Empfehlungen liefern, an denen Menschen nicht vorbeikommen. Künstliche Intelligenz bringt auch hier keine neue Qualität; mit sich. Ein Beispiel ist etwa von Scoring abhängige Kreditvergabe.

    Des weiteren schliesst die Regelung aus, dass künstliche Intelligenzen eines Tages Recht sprechen, was aber im Hinblick auf durch viele Studien belegten Schwächen, Vorurteile, Launen und Biorythmen menschlicher Richter für mehr Gerechtigkeit sorgen könnte.

    Es ist davon auszugehen, dass künstliche Intelligenzen nach und nach als Organe von Körperschaften diese faktisch übernehmen, aber zwischen einem von künstlichen Intelligenzen und einem von Menschen geführten Konzern besteht von aussen betrachtet für den Einzelnen ohnehin kein wahrnehmbarer Unterschied.

    Möglich ist, dass künstliche Intelligenzen eines Tages als empfindungsfähige Individuen gelten werden und ihnen eine von Körperschaften unabhängige, individuelle Existenz zuzuerkennen ist, womit sie auch eine zu schützende Würde erlagen.

    Zusammenfassend ergibt sich für mich, dass die Würde des Menschen gleichermassen vor künstlichen Intelligenzen zu schützen ist, wie sie vor Körperschaften oder anderen Menschen zu schützen ist und jeweils umgekehrt.

    Sonderregelungen für “erwachsene” künstliche Intelligenzen erübrigen sich damit eigentlich. Für “unreife” oder unselbstständige künstliche Intelligenzen dagegen, mit denen wir es auf absehbare Zeit zu tun haben werden, ist dagegen ähnlich zu verfahren wie mit Unmündigen bzw. mit beauftragten Funktionsträgern, wo je nach Grad der Mündigkeit bzw. Verantwortung es natürlich eine Aufsichtspflicht gibt und sich die Frage der Verantwortung ähnlich komplex gestaltet wie es heute bei Verletzungen von Aufsichtspflichten gegenüber Unmündigen oder Beschäftigten.

    Man sollte zudem berücksichtigen, dass künstliche Intelligenzen, egal wie ausgereift, so wie der Mensch auch immer Fehler machen werden. Der Umgang damit lässt sich auch nicht pauschalisieren, aber unser Rechtssystem hat hier viele Konzepte entwickelt, um etwa mit unvermeidlichen Betriebsgefahren technischer Systeme unzugehen, beispielsweise Zertifizierungen, Überwachung oder Versicherungspflichten, und bei der Zurechnung von Verantwortung und Schuld für Fehler oder Schaden gibt es hochdifferenzierte Gesetze und Rechtsprechung.

    tldr: Der Artikel zur künstlichen Intelligenzen ist zu pauschal und geht an der Komplexität und Natur der Sache weitgehend vorbei. Sollte komplett neu gedacht oder im Zweifelsfall gestrichen werden weil zu kompliziert oder vielleicht überflüssig.

    1. 0
      Joachim schreibt:

      “Möglich ist, dass künstliche Intelligenzen eines Tages als empfindungsfähige Individuen gelten werden und ihnen eine von Körperschaften unabhängige, individuelle Existenz zuzuerkennen ist, womit sie auch eine zu schützende Würde erlagen”.

      Möglich wäre somit, in jede KI ein festes Verfallsdatum zu installieren, wie es Philip K. Dick in seinem Buch: Do Androids Dream of Electric Sheep beschreibt. Es sollte viel mehr Menschen geben, die besorgt sind, der Natur und insbesondere “Tieren” diese Würde einzuräumen.

      “tldr: Der Artikel zur künstlichen Intelligenzen ist zu pauschal und geht an der Komplexität und Natur der Sache weitgehend vorbei. Sollte komplett neu gedacht oder im Zweifelsfall gestrichen werden weil zu kompliziert oder vielleicht überflüssig”.

      Vielleicht sollten wir mit der Entwicklung von KI´s genauso verfahren?

      Auf jeden Fall muss sich jede KI in der Gegenwart/Zukunft durch eine deutliche Signatur/KI-Benutzernamen auszeichnen. Dadurch wird die Manipulation der Medien weitgehend verhindert.
      //Siehe Psychometrie und Psychologie: Big Five: Offenheit (Wie aufgeschlossen sind Sie gegenüber Neuem?), Gewissenhaftigkeit (Wie perfektionistisch sind Sie?), Extraversion (Wie gesellig sind Sie?), Verträglichkeit (Wie rücksichtsvoll und kooperativ sind Sie?) und Neurotizismus (Sind Sie leicht verletzlich?).

      Menschen müssen stets im Wissen darüber sein mit einer Maschine zu kommunizieren oder dass eine Maschine/Algorithmus möglicherweise verwirrende/verfälschte Inhalte publiziert!

    1. 4

      Ich finde diesen Absatz problematisch. Die Formulierung “Handlungen selbstlernender Maschinen” legt ja nahe, dass es im Prinzip Maschinen geben kann, die mit Handlungskompetenz ausgestattet sind. Damit wird aber das Problem der Rechtssubjektivität von Maschinen aufgeworfen, welches hier mit dieser Formulierung vorentschieden ist.

  11. 0
    Anja Hartmann schreibt:

    Was natürlich (ich wage es kaum zu schreiben) die Frage aufwirft, wie ethisch-normative Entscheidungen zu definieren sind? V.a. wenn es um mittelbare Auswirkungen geht? Gibt ein Preisvergleichsportal, das mir günstige T-Shirts anbietet, die unter menschenmissachtenden Bedingungen produziert worden sind, eine ethisch-normative Empfehlung ab? Welche Entscheidung ist dann überhaupt noch nicht ethisch-normativ?

  12. 0

    Schlage im Hinblick auf wild spekulierende Finanz-Bots, die regelmäßig Crashes auslösen, folgende Formulierung vor:

    “Algorithmen dürfen nicht zum Auslösen von Geschäftsprozessen, gleich welcher Art, verwendet werden.”
    Damit hätte man dann auch die eBay-Sniper weg. Kaufen und Verkaufen per Bot machen eh nur Betrüger.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Mit dem Absenden des Kommentars stimmen Sie unseren Nutzungsbedingungen zu.