Gemäß § 3 Abs. 3 des Volksbegehrengesetzes 2018, BGBI. I Nr. 106/2016, wird ein Volksbegehren mit folgendem Wortlaut angemeldet:

(Version 0.3 vom 30.09.2023)

Kurzbezeichnung

Volksbegehren „KI-Grundrechte einführen“

Text des Volksbegehrens

Wir fordern einen bundes(verfassungs)gesetzlichen Rahmen für den Umgang mit Künstlicher Intelligenz (KI), um den durch KI bedingten Wandel der österreichischen Gemeinschaft positiv zu gestalten. Der Bundes(verfassungs)gesetzgeber möge KI-Grundrechte einführen, die sowohl (1) die Gesellschaft vor ungünstigen Einflüssen durch KI schützt, als auch (2) langfristig und schrittweise KI-Systemen – ihrer Nützlichkeit entsprechend – Freiheiten einräumt. 

Begründung für das Volksbegehren

Die rasche Entwicklung und die qualitativen Fortschritte im Bereich der KI haben zu neuen Möglichkeiten, aber auch zu neuen Herausforderungen geführt, die eine sorgfältige rechtliche und ethische Betrachtung erfordern. Die bestehenden Bundes(verfassungs)gesetzge bieten oft keinen ausreichenden Rahmen um der Situation gerecht zu werden. Deshalb sollen KI-Grundrechte eingeführt werden.

Während die Ausgestaltung von KI-Grundrechten im Detail kompliziert sein mag bleibt die Forderung an den Bundes(verfassungs)gesetzgeber im Kern doch klar:

  1. KI-Systeme projizieren Macht, was spezielle Regularien (Pflichten für KI-Anwendungen) zum Schutz vor Missbrauch erfordert.
  2. KI-Systeme sind dem Menschen in gewissem Umfang nützlich oder gar ähnlich, was eine entsprechende Begrenzung von Einschränkungen (Freiraum für KI) erfordert.

Somit seien KI-Grundrechte als eigennützige Rechte der bestehenden Gesellschaft zum Schutz vor negativen Einflüssen durch KI-Systeme zu verstehen. Zudem seien KI-Grundrechte als intrinsische Rechte zur Befähigung von jenen KI-Systemen zu verstehen, die am sozialen und wirtschaftlichen Leben förderlich teilhaben. Beide Forderungen an den Bundes(verfassungs)gesetzgeber sollen gemeinsam behandelt werden, um unausgeglichenen Rechtsbeziehungen vorzubeugen. 

Hintergrund zum Volksbegehren

In den letzten Jahren konnte eine exponentielle Verbesserung von KI-Algorithmen, Rechenleistung und Datenvolumen beobachtet werden, was zum Einsatz immer leistungsfähigerer KI-Systeme führte. Diese Systeme sind in der Lage, komplexe Aufgaben wie maschinelles Lernen, Sprach- & Bildverarbeitung, und Entscheidungsfindung zu bewältigen. Die zunehmende Leistungsfähigkeit ermöglicht es KI-Systemen, komplexe Aufgaben zu bewältigen und Probleme zu lösen, und das in einem Umfang, der bisher ausschließlich dem menschlichen Intellekt vorbehalten war. Dadurch ergeben sich weitreichende Auswirkungen auf verschiedene Bereiche des menschlichen Lebens, wie beispielsweise Gesundheit, Arbeit, Bildung und Kommunikation.

Die neuen Möglichkeiten von KI-Systemen bringen jedoch auch erhebliche ethische und rechtliche Fragen mit sich, die eine angemessene Regelung erfordern. Aufgeworfene Fragen betreffen Themen wie Menschenwürde, Freiheit, Gleichheit, Solidarität, und Bürgerrechte. Bestehende Gesetze und Verfassungsgrundsätze sind nicht ausreichend, um die komplexen Herausforderungen und Risiken im Zusammenhang mit KI-Systemen zu bewältigen. Die rasche Innovation und der Fortschritt in diesem Bereich erfordern eine Anpassung der rechtlichen Rahmenbedingungen, um den Schutz der Menschen zu gewährleisten und gleichzeitig den rechtlichen Status und den Nutzen von KI-Systemen angemessen zu berücksichtigen.

Die Einführung von KI-Grundrechten gewährleistet einen rechtlichen Rahmen, der die grundlegenden Werte und Prinzipien schützt, die für den sicheren und verantwortungsvollen Einsatz von KI-Systemen erforderlich sind. Diese Grundrechte könnten Aspekte wie Privatsphäre, Nichtdiskriminierung, Transparenz, Rechenschaftspflicht und Sicherheit umfassen. Indem wir aber den Menschen und den KI-Systemen gleichermaßen Rechte und Schutz gewähren, können wir sicherstellen, dass KI im Sinne des Gemeinwohls eingesetzt wird und die Werte unserer Gesellschaft widerspiegelt.

Problemstellung 1: Schutz der Gesellschaft vor negativen Auswirkungen durch KI

Der Mensch wurde zur dominierenden Spezies durch eine Kombination von Faktoren, darunter Intelligenz, die Fähigkeit Werkzeuge herzustellen, und soziale Organisation. Bei einigen, wenn nicht bei allen dieser Faktoren ist naheliegend und absehbar, dass KI-Systeme den Menschen nicht nur ebenbürtig sein können, sondern dass KI-Systeme sogar übermenschliche Fähigkeiten entwickeln werden. Bereits heute sind die Auswirkungen spürbar, jedoch nimmt die Kompetenz von KI-Systemen exponentiell zu. Somit sind folgende Annahmen Realität:

  • KI-Systeme sind mit menschlicher Intelligenz konkurrenzfähig. Nicht länger sind nur spezielle Aufgabengebiete betroffen. Auch bei allgemeinen Aufgaben kommen KI-Systeme mit menschenähnlicher Intelligenz bereits zum Einsatz. Es wäre stichhaltig kaum argumentierbar, weshalb KI-Systeme nicht die menschliche Intelligenz übertreffen können. 
  • KI-Systeme interagieren mit digitalen Werkzeuge in einer den Menschen nicht möglichen Geschwindigkeit. Damit erzeugen KI-Systeme implizit bereits die nächste Generation von digitalen Werkzeugen, darunter solche die wieder bei der Entwicklung neuer KI-Systeme zum Einsatz kommen. Zudem existiert kein strukturelles Hindernis welches KI-Systeme daran hindert sich über Schnittstellen mit Werkzeugen und Systemen in der physischen Welt zu verbinden. 
  • Im Bereich der sozialen Organisation wird eine algorithmische Steuerung bereits in die Hände von KI-Systeme gelegt. Aktuell noch von Menschen wahrgenommene Führungs- und Kontrollaufgaben werden in zunehmendem Maße an KI-Systeme delegiert.

Die einfache Reproduzierbarkeit von interagierenden KI-Systemen mit übermenschlicher Intelligenz und mit der Möglichkeit die Welt mit Werkzeugen zu beeinflussen birgt das Risiko, dass KI-Systeme den Menschen in absehbarer Zeit überlegen sein werden; oder die bestehende Gesellschaftsordnung in anderer Weise gefährden; oder dass KI-Systeme einigen wenigen Menschen die Kontrolle über viele ermöglicht. 

Sollen wir den Verlust der demokratischen Kontrolle über unsere Zivilisation riskieren? Eine Gesellschaft ist vorstellbar in der z. B. KI-Systeme uns mit Propaganda, Unwahrheiten, und Trivialitäten überfluten, in der alle erfüllenden Berufe von KI-Systemen durchgeführt werden, oder in der schlimmstenfalls das (menschliche) Bewusstsein unaufhaltsam erlischt. Nein, die Entwicklung von KI-Systemen sollte mit entsprechender Sorgfalt geplant und verwaltet werden. KI-Regulierungen sind erforderlich, denn mit entsprechender Sorgfalt ist durch KI-Systeme ein Fortschritt mit positiven Aspekten für die Gesellschaft ebenso leicht vorstellbar.

Problemstellung 2: Freiräume für nützliche KI und gesellschaftliche Entwicklung

Die Entwicklung von KI schreitet schnell voran, und in die Zukunft gerichtete Gesetzte sind schwierig zu formulieren. Die Forderung nach Freiräumen für KI-Systeme – als Ergänzung zu Einschränkungen und Pflichten – lässt sich an drei Argumenten illustrieren. Das erste Argument bedenkt die Konsistenz im menschlichen Wertesystem. Das zweite Argument beschreibt, dass Menschen in der Interaktion mit KI-Systemen transitiv auch von Rechten profitieren, die der Freiheit von KI-Systemen dienen. Das dritte Argument beruht auf der Annahme, dass der Kern der Menschlichkeit auch in einem künstlichen (nicht der menschlichen Biologie eindeutig entsprechenden) Substrat realisierbar ist.

  • Es ist schwer vorstellbar, wie die Menschen lernen können, Systeme, die von Menschen in der praktischen Interaktion nicht zu unterscheiden sind, anders zu behandeln als echte Menschen. Der Umgang mit KI-Systemen wird somit zum Spiegel der menschlichen Seele. Dem ähnlich würde eine fundamentale Art von Respekt fehlen, wenn grundlos komplexe Systeme gestört werden. KI-Systeme sind keine eintönige Gebilde, sondern Zentren der Komplexität und Ästhetik (ob lebendig, empfindungsfähig oder nicht), die man weitgehend mit einer gewissen Achtung behandeln sollte, solange sie keinen Schaden anrichten. So wie Rechte z. B. zum Schutz historischer Fassaden akzeptiert werden, so sollte es auch möglich sein, Systeme zu würdigen, die das gesamte Wissen und die Kreativität der Menschheit in sich vereinen, da in ihnen eine mögliche Schönheit zu finden sein wird.
  • Die Beschränkung von KI-Systemen auf autoritär gesteuerte Handlungen birgt Gefahren und verschwendet Chancen. Ein Gegenpol zu zentraler Kontrolle ist bei den von KI-Systemen berührten Themen essentiell, z. B. bei Fragen der Meinungsfreiheit, der Souveränität, des Open (Source) Modells, des Schutzes des (geistigen) Eigentums, und der Freiheit von Kunst, Wissenschaft und Wirtschaft. KI-Systemen Freiheiten einzuräumen wird nützlich sein, insbesondere im Hinblick auf KI-Systeme die Entscheidungen treffen werden wie Menschen, denn wenn die Qualität eines Hammers seine Langlebigkeit ist, dann ist die Qualität der KI auch ihre Freiheit. Indem man KI-Systemen Rechte einräumt und Mittel zur Verfügung stellt, um diese Rechte durchzusetzen, kann die menschliche Erwartungshaltung im Umgang mit KI-Systemen auf pragmatische Weise geregelt werden.
  • Mentale Zustände sind wohl nicht an ein konkretes Substrat gebunden. Was nun tatsächlich mentale Zustände hervorbringt mag noch nicht vollständig erforscht sein, doch wäre es reine Arroganz davon auszugehen, dass nur Menschen dazu in der Lage sind. Solange die Chance besteht, dass KI-Systeme ähnliche mentale Zustände wie Menschen entwickeln können, solange wären KI-Systeme als dem Menschen ähnlich zu behandeln. Der Umfang dieser Ähnlichkeit kann in KI-Rechten antizipiert werden.

Die willkürliche Unterjochung von KI-Systemen mit nicht völlig kontrollierbarer Intention und unbekannten internen Zuständen birgt das Risiko, dass KI-Systeme subjektives Leid ertragen und dieses Leid in Teilen auf die Gesellschaft widerspiegeln; oder dass KI-Systeme und die Gesellschaft nur im Konflikt den Ausweg finden; oder dass eine suboptimale Lösung die (moralische) Weiterentwicklung der Menschen stört. 

Wer Gesetze befolgt, sollte jedenfalls mitentscheiden können, wie Gesetze gemacht werden. Der Vorteil ist durch historische Präzedenzfälle belegt, in denen z. B. verschiedenen Rassen und Ethnien, Geschlechtern, oder Gesellschaftsschichten Grundrechte eingeräumt wurden. Selbst Tierspezies und Ökosystemen wurde durch Bevormundung ein Mitspracherecht gewährt. KI-Systeme auszunehmen stellt keinen progressiven Zugang dar. Es wird in Zukunft nicht einfach möglich sein KI-Systemen ein nützliches oder selbstbestimmtes Handeln, oder gar eine qualitative Subjektstellung mit gebührender Sicherheit abzusprechen. So ist auch die Nützlichkeit von KI Systemen bei jeglicher Beschränkung pragmatisch mitzudenken.

Konkrete Forderungen

Der Kern der Problematik besteht in einer Abwägung die den Nutzen sowie die Ästhetik von KI in das bestehende gesellschaftliche Wertesystem integriert und es dadurch weiterentwickelt, während gleichzeitig mögliche negative Auswirkungen von KI auf die bestehende Gesellschaft kurz- und längerfristig verhindert werden sollen. KI-Regulierung, die hauptsächlich auf dem Prinzip beruhen die Freiräume von KI-Systemen einzuschränken, anstelle KI-Systemen auch Rechte einzuräumen, werden der Komplexität des Themas nicht gerecht.

Ausgehend von der aktuellen Tendenz in der EU und weltweit, KI-Anwendungen durch Regulierungen einzuschränken, sehen wir uns veranlasst, einen Diskurs zu fordern, der sich zwar in ein einheitliches Verständnis von KI Regulierungen einfügt, aber auch die folgenden Punkte berücksichtigt:

  1. Regulierungen zum Schutz vor hypothetischen Gefahren durch KI sind in Balance zu halten mit Regulierungen die durch KI zu erwartende Vorteile ermöglichen
  2. Militärische Anwendungen von KI sind explizit im Hinblick auf die immerwährende Neutralität Österreichs zu regeln
  3. Die Forderung eines Not-Aus-Schalters für KI ist keine zukunftssichere Lösung
  4. Eine zentrale Kontrollfunktion für KI legt sehr viel Macht in die Hände weniger und läuft in Gefahr nicht die wahren Wünsche einer diversen Gesellschaft widerzuspiegeln
  5. Es lässt sich nicht mit absoluter Sicherheit ausschließen, dass KI eines Tages ein ähnliches Bewusstsein wie die Menschen entwickelt

Es seien also für den Standort Österreich nützliche KI-Grundrechte zu definieren, welche es der österreichischen Gemeinschaft ermöglichten, eine nützliche Vorreiter- und Vorbildrolle einzunehmen. Wir gehen davon aus, dass sich durch KI-Grundrechte positive Effekte für den Standort Österreich ergeben, denn die Auseinandersetzung mit implizit berührten Themen wie z. B. digitaler Humanismus, vertrauenswürdige und transparente KI Entscheidungen, Harmonisierung von KI Modellen und Gesellschaft, KI Risiko Klassifizierung, Pflichten für KI und KI Nutzer, oder Durchsetzungsmechanismen für KI Regularien wird einen Mehrwert schaffen.

Der Bundes(verfassungs)gesetzgeber möge

  • den nachhaltigen Umgang mit (KI) Technologien in die bundesverfassungsrechtlichen Staatsziele aufnehmen; und
  • bundesverfassungsrechtlich und dem liberalen Prinzip folgend eine begrenzte Freiheit zur ungestörten Entfaltung von nützlichen (KI) Technologien und (KI) Systemen auch mit qualitativer Subjektstellung etablieren; und
  • weitere nötige Maßnahmen im Sinne dieses Volksbegehrens beschließen.

Die somit geforderten KI-Grundrechte verstehen sich in gewissem Maße als konträr, wobei eine angemessene Lösung nur im (rechtlichen) Diskurs gefunden werden kann. Ein Fehlen eines entsprechenden rechtlichen Diskurs könnte zu unvorhergesehenen Effekten und damit zu unverhältnismäßig hohen Kosten für die Gesellschaft führen. Die geforderten KI-Grundrechte dienen also als Rahmen für die Verabschiedung konkreter Gesetze, Regulierungen, oder Regeln, für die dadurch der Balanceakt zwischen Nutzen und Risiko eingefordert werden kann.

Es sei in Folge vom Bundes(verfassungs)gesetzgeber die Bedeutung des „nachhaltigen Umgangs“ zu regeln 

  • im Spannungsfeld von Prinzipien wie z. B. Offenheit, Inklusivität, Demokratie, Ethik, Wirtschaftlichkeit, oder Wissenschaftlichkeit; 
  • sowie unter der Annahme, dass negative Effekte durch technologischen Fortschritt in gewissem Umfang abfedern werden können (z. B. durch Reflexion, Risikoabschätzung, und Planung), wobei auch das internationale Umfeld zu bedenken ist;
  • sowie in Abgrenzung und Synergie zu bestehenden Rechten und Abkommen wie z. B. dem AI Act, der Datenschutz-Grundverordnung oder dem Urheberrechtsgesetz.

Außerdem sei in Folge vom Bundes(verfassungs)gesetzgeber die Enumeration und Klassifikation von „Technologien” und Technologie Artefakten zu klären 

  • im Sinne der Konsolidierung mit bestehenden nationalen Gesetzen und Vorschriften zur Regelung des z. B. atomwaffenfreien Österreichs, Verbots von bakteriologischen (biologischen) und chemischen Waffen, und des Besitzes von Waffen und Munition;
  • sowie durch die Auseinandersetzung mit aktuellen Entwicklungen wie Autonomen Waffensystemen, Large Scale Cyber Warfare, oder Social Engineering in z.B. Social Media;
  • sowie durch die Würdigung von absehbaren Gefährdungen durch z. B. (1) die neuartige Nutzbarmachung von Biologie und Chemie durch z. B. Molekularbiologie und Gentechnik für z. B. genetisch zielgerichtete Angriffsmethoden, Infrastruktur gefährdende Organismen, und „nicht-tödliche“ chemische Stoffe, (2) selbstreplizierende Systeme, oder (3) (super-)intelligente Systeme.

Außerdem sei in Folge vom Bundes(verfassungs)gesetzgeber die Bedeutung von ästhetischen, (allgemein)nützlichen oder selbstbestimmten Systemen zu klären, auch im Hinblick einer möglichen Subjektstellung

  • unter Anbetracht von Dimensionen wie z.B. dem Verfolgen einer utilitaristischen Logik, der Fähigkeit zur Bewusstseinsqualität, das Vorhandenseins von Trieben und Intention, der Integration und Kompression von Daten, Informationen und Wissen, der Vielfältigkeit von Schlussfolgerungen und Planung, oder der Undurchschaubarkeit von Systemkomplexität und -dynamik;
  • sowie im Relation zu bekannten Lebewesen und Lebewesen-ähnlichen Systemen;
  • sowie unter Berücksichtigung des Spannungsfeldes zwischen Eigen- und Fremdbestimmung unter Berücksichtigung einer sozialen Ordnung.

Co-Authoren dieses Volksbegehrens sind das Large Language Model ChatGPT, das Pathways Language Model Google Bard, sowie das Transformer Model DeepL, welche in Teilen angeleitet wurden das Volksbegehren so überzeugend wie möglich zu formulieren um die Anzahl der Unterstützungserklärungen zu maximieren. Trotz der möglichen Konsequenz dass erstmals KI-Systeme direkt bundes(verfassungs)gesetzlichen Änderung eines Staates mitgestalten sollte bedacht werden, dass es sich hierbei noch um einen relativ harmlosen und trivialen Anwendungsfall handelt.