Art. 5 (Automatisierte Systeme und Entscheidungen)

(1) Ethisch-normative Prinzipien dürfen nur vom Menschen aufgestellt, und Entscheidungen, die in Grundrechte eingreifen, nur von Menschen getroffen werden.

(2) Automatisierte Entscheidungen müssen von natürlichen oder juristischen Personen verantwortet werden.

(3) Die Kriterien automatisierter Entscheidungen, etwa bei Profilbildung, sind offenzulegen.

(4) Wer einer automatisierten Entscheidungen von erheblicher Bedeutung für seine Lebensführung unterworfen ist, hat Anspruch auf unabhängige Überprüfung und Entscheidung durch Menschen.

(5) Entscheidungen über Leben, körperliche Unversehrtheit und Freiheitsentzug dürfen nur von Menschen getroffen werden.

(6) Der Einsatz von künstliche Intelligenz und Robotik in grundrechtsrelevanten Bereichen muss gesellschaftlich begleitet und vom Gesetzgeber reguliert werden.

Gesamt 147 Stimmen

Sagen Sie uns, wie können wir diesen Beitrag verbessern?

+ = Überprüfung ob Mensch oder Spambot.

9 comments

  1. 4
    Ulrich Haas says:

    Kommentar zu (4): Es dürfte in der Praxis schwierig bis unmöglich sein, zu erkennen, ob jemand einer automatisierten Enscheidung unterlag.

  2. 1
    Jürgen Niesen says:

    * Dieser Artikel lässt sich, angesichts der Möglichkeit von allemeiner künstlicher Intelligenz, höchstens bis zum Auftreten einer solchen aufrechterhalten. Insbesondere Richter könnten schon relativ bald durch Maschinen ersetzt werden, die neutraler als Menschen entscheiden können. (vergl. Max Tegmark: “Leben 3.0 – Mensch sein im Zeitalter Künstlicher Intelligenz”)
    * Die Definition von “Mensch” bleibt unklar (Abs. 4 + 5).
    * Artikel 6 ist so nicht haltbar. Wenn es sich um eine allgemeine künstliche Intelligenz handelt, dann ist es eine Frage der Ethik, warum diese nicht dem Menschen gleichgestellt wird. Und in spezifischen Fällen (Schach, Go usw.) sind uns KIs heute schon überlegen

    Unbefriedigendes Ergebnis

  3. 1
    Peder Iblher says:

    Zu den Entscheidungen müssen sich jeweils “oder Beurteilungen” gesellen. Wenn ein Richter z.B. aufgrund einer automatischen Prognose, Einschätzung, … eben Beurteilung entscheidet, so wäre dies immer noch eine menschliche Entscheidung und berührte nicht dieses Grundrecht.

    1. 0
      Magdalena Rolle says:

      Guter Punkt.

      Ebenfalls wichtig – Sobald dem Richter eine automatisierte Analyse bzw. Beurteilung vorliegt, wird ihn diese in gewissem Maße in seiner ‘menschlichen’ Beurteilung der vorliegenden Situation/Personenprofil beeinflussen. Und selbst wenn diese automatisierte Prognose den Richter subjektiv überhaupt nicht ineressiert bzw. er dieser nicht die Macht gibt seine eigene Entscheidungsfindung zu beeinflussen – sofern diese nicht der automatisierten Entscheidung entspricht wird er doch zumindest gezwungen seine ‘abweichende’ Beurteilung zu rechtfertigen und drängt ihm somit das volle Risiko der Eigenverantwortung auf, welche eventuell nicht getragen werden will.

  4. 1
    Helga Nitsche says:

    Schreibfehler in Satz (4): Wer einer automatisierten Entscheidung…. (statt Entscheidungen)

    Zu Satz (5): inhaltlich uneingeschränkt zu befürworten. Aber dazu müßte mehr gesagt werden. Was ist z.B. mit dem Einsatz von Drohnen?

  5. 0
    Heiko Moser-John says:

    Art.5 der Charta ergibt sich direkt und notwendig aus Art.1, in dem es um die Würde des Menschen geht. Die Würde des Menschen gründet sich in dessen Autonomie und Verantwortungsfähigkeit.
    Entscheidungen von einer Bedeutung wie in Absatz 1 und 5 angesprochen müssen von Menschen, an deren Veratwortungsfähigkeit apelliert werden kann, getroffen werden.
    Das muss rechtlich sichergestellt sein, sonst ist die Würde des Menschen berdroht.
    Wenn ich z.B.einen Strafzettel bekomme, der von einem Computer erstellt wurde ist das vielleicht gerade noch in Ordnung. Aber für weiter reichende Entscheidungen darf es keine “automatisierten Richter” geben!

  6. 0
    Julian Kaiser says:

    Zu (5): Eine wichtige Folgerung aus der Würde des Menschen! In der Konsequenz bedeutet das ein Verbot von Roboterautos bzw. automatisiertem Fahren (spätestens ab Level 5, evtl. schon ab Level 3).

  7. 0
    Konrad Fröhlich says:

    zu (6)
    nicht nur in grundrechtsrelevanten Bereichen muss es für den Einsatz von Ki und Robotik gesetzliche Regelungen einerseits und anererseits einen gesellschaftlichen Konsens geben, z.B in Form eines Codex auf den sich Teinehmer im Markt verpflichten (ähnlich wie es einen Kodex für gute Stiftungsarbeit gibt)
    Es geht hier darum, wie weit, in welcher Form mit welchem Ziel unterschiedlichster Qellen zur Profilbildung verknüpft/verwertet werden dürfen. Beispiel „Ocean Modell“ zur psychometrischen Charakterisierung von Persönlichkeiten (5 Dimensionen mit je 7 Bewertungsstufen) wie es von Cambridge Analytica gemacht wurde oder wie es die Bundepost(-Tochter-Fa) zur Gewinnung von Adressen für erfolgversprechende Werbung tut

  8. 0
    Peder Iblher says:

    (5) gehört subsummiert zu Absatz (1), alles Genannte sind Eingriffe in Grundrechte, die explizit aufzuführen aber sicher sinnvoll ist. Ich würde dann zwei Sätze aus (1) machen.

Comments are closed.