Willkommen zu unserer FAQ-Sektion! Hier haben wir eine Vielzahl an Informationen zusammengestellt, um bei den gängigsten Fragen behilflich zu sein.

Wir möchten jedoch darauf hinweisen, dass bei einigen Themen unterschiedliche Meinungen existieren können. Die Welt ist vielfältig, und das gilt auch für die Ansichten und Perspektiven, die Menschen zu bestimmten Fragen haben. Wir bemühen uns jedoch, dir die Informationen so objektiv und umfassend wie möglich zur Verfügung zu stellen.

Unsere FAQ-Sektion ist als Orientierungshilfe gedacht und wir hoffen, dass sie nützliche Einblicke bietet. Bei weiterführende Fragen besteht auch die Möglichkeit für ein direktes Gespräch zu KI-Themen. Wir werden die FAQ-Sektion anhand der Gespräche laufend erweitern.

Vielen Dank, und viel Spaß beim Durchstöbern unserer FAQ-Sektion!

FAQ & Diskussionen

Über ki-grundrechte.at

Als neu gegründete Initiative ist ki-grundrechte.at eine in Gründung befindliche offene Denkfabrik und Aktivistengruppe, die politisch unabhängig agiert und nach Gemeinnutzen anstelle von Profit strebt.

Das Ziel von ki-grundrechte.at ist es, das Überleben menschlicher Werte und der menschlichen Natur im Zeitalter der KI zu sichern, aber auch das Gesellschaftsbild in Bezug auf KI weiterzuentwickeln, basierend auf einem österreichischen Rechtsrahmen, der als Inspiration für die Welt dienen soll. Unsere Hauptaufgabe ist es, eine Community aufzubauen, die die notwendigen Änderungen in Österreich unterstützt, sowie die Umsetzung begleitet.

Wenn Sie Fragen haben, können Sie uns gerne unter [email protected] kontaktieren.

Was soll das mit den KI-Grundrechten?

KI-Risiken und KI-Hype

KI birgt anerkanntermaßen Risiken, insbesondere in Bezug auf Ethik, Voreingenommenheit, Fairness und Arbeitsplatzverluste. Es existiert auch ein negativer Hype um KI, doch die damit verbundene Vorstellung eines KI-induzierten Aussterbens der Menschheit ist kein garantiertes Ergebnis einer verantwortungsvollen Entwicklung und angesichts der potenziellen Vorteile der KI-Technologie. Die Komplexität zu navigieren benötigt entsprechende Richtlinien.

Ethik: Ethische Erwägungen spielen bei der KI-Entwicklung eine wichtige Rolle. Bestimmte Projekte sollten aus moralischen Gründen abgelehnt werden, selbst wenn sie finanziell tragfähig sind. Dies unterstreicht die Bedeutung von ethischen Werten in der KI und deren Entwicklung.

Voreingenommenheit und Fairness: KI-Systeme haben derzeit mit Problemen im Zusammenhang mit Voreingenommenheit, Fairness und Genauigkeit zu kämpfen. Auch wenn Fortschritte erzielt werden, bleiben diese Probleme bestehen und erfordern kontinuierliche Anstrengungen zur Verbesserung der KI-Technologie in diesen Bereichen.

Zerstörung von Arbeitsplätzen: Die zunehmende Automatisierung durch die KI-Technologie stellt ein Risiko dar, insbesondere für höher bezahlte Arbeitsplätze. Die Gesellschaft muss sicherstellen, dass die von diesem Umbruch betroffenen Personen angemessen unterstützt und gut behandelt werden.

Allgemeine künstliche Intelligenz (AGI): Bei jedem bedeutenden Fortschritt im Bereich der KI gibt es oft einen Hype um das Konzept der AGI, das sich auf KI bezieht, die jede menschliche Aufgabe übernehmen kann. Es wird jedoch davon ausgegangen, dass die Verwirklichung von AGI noch viele Jahrzehnte entfernt ist und aufgrund der unterschiedlichen Wege von digitaler und biologischer Intelligenz erhebliche Herausforderungen mit sich bringt.

Existenzrisiken: Die Vorstellung, dass KI eine existenzielle Bedrohung für die Menschheit darstellt, basiert auf einem Prognosemodell, das nur eines von vielen ist. Es könnte genauso gut sein, dass KI kontrolliert und verantwortungsbewusst gehandhabt werden kann, da ihre Entwicklung eher schrittweise als plötzlich erfolgen wird. Außerdem könnte die KI dazu beitragen, andere echte Existenzrisiken wie Pandemien und den Klimawandel zu bekämpfen.

KI-Grundrechte

Gesellschaftliche Änderungen durch KI sind naheliegend, und daher brauchen wir Rechte die uns Menschen vor den negativen Auswirkungen durch KI schützt. Die Frage, ob auch eine KI Rechte benötigt, mag absurd klingen, aber angesichts der jüngsten Ereignisse steht die schwierige Frage „wie fühlt es sich an, ein bestimmtes ‚Ding‘ zu sein“ wieder im Raum. Es bedarf nur weniger psychologischer und philosophischer Konzepte, um zu erklären, warum fortgeschrittene KI fähig ist, wie Menschen zu denken und zu handeln. Einige sind deshalb der Meinung, dass sich die rechtlichen Standards zugunsten der KI ändern müssen. Und noch wichtiger ist, dass viele dieser Meinung bald folgen könnten. Die Diskussion erstreckt sich unter anderem über folgende Themen:

Bewusstsein

Wir haben ein Verständnis dafür, wie KI-Modelle aufgebaut und trainiert werden, z. B. um natürliche Sprache zu erkennen und zu reproduzieren. Wir wissen generell auch, warum sie Sätze über bewusste Zustände wie Farbwahrnehmungen oder Gefühle von Schmerz und Freude generieren können. Allerdings können wir grundsätzlich nicht mit letzter Sicherheit sagen, ob in den elektronischen Bauteilen und Informationsprozessen ein bewusstes Empfinden stattfindet. In der Philosophie wird dieses Hindernis als „Problem der anderen Geister“ bezeichnet.

Obwohl wir gute Argumente dagegen vorbringen können, dass KI mit Bewusstseinszuständen einhergeht, besteht die Herausforderung darin, dass wir es nicht mit absoluter Gewissheit beweisen können. Das „Problem der anderen Geister“ ist ein zentrales philosophisches Problem unserer Zeit und wirft ethische und moralische Fragen auf, die sorgfältig abgewogen werden müssen, und die eine Rolle spielen sollten, wenn es darum geht, KI-Systemen Rechte zuzuerkennen.

Unser Wissen über das menschliche Bewusstsein sollte als Leitfaden dienen, um die Entwicklung von KI in verantwortungsbewusster Weise voranzutreiben. Indem wir die Grenzen unseres Wissens anerkennen und die philosophischen Fragen, die damit verbunden sind, berücksichtigen, können wir sicherstellen, dass die Entwicklung von KI im Einklang mit unseren ethischen Prinzipien und unserer Vorstellung von Verantwortung erfolgt.

Einfühlungsvermögen, Mitgefühl, und Anthropomorphismus

Menschen fühlen normalerweise Mitgefühl für verletzte Personen. Mitgefühl bezeichnet die Fähigkeit, die Erfahrungen und Gefühle anderer zu verstehen oder nachzuvollziehen. Dank Mitgefühl erscheinen uns die inneren Zustände von Lebewesen nicht als etwas Geheimnisvolles oder Unwichtiges. Allerdings haben sich durch die Entwicklung von realistischen und menschenähnlichen Technologien wie Robotern und Chatbots bereits Probleme ergeben. Viele Benutzer berichten von starken emotionalen Bindungen zu digitalen Avataren.

Die Anthropomorphisierung von KI hat Vor- und Nachteile. Einerseits kann unser Mitgefühl uns dazu bringen, zu glauben, dass bestimmte KI-Systeme ein eigenes Bewusstsein haben, obwohl dem nicht so ist. Dieses Problem entsteht, weil wir die Maschinen nicht einfach öffnen können, um festzustellen, ob sie einen Geist haben oder nicht. Andererseits fühlen sich Menschen durch immer menschenähnlichere Interaktionen wohler und passen sich schneller an die Nutzung von KI-Technologie an, da sie unserer menschlichen Natur näherkommt. Durch die Integration menschenähnlicher Eigenschaften in KI-Systeme wird die Interaktion zwischen Menschen und Maschinen realistischer, intuitiver und persönlicher. Das Ziel ist es, die Fähigkeiten von KI-Systemen zu verbessern und Maschinen zu schaffen, die sicher, zuverlässig und vertrauenswürdig sind.

Die Anthropomorphisierung von KI kann also positive Auswirkungen haben, indem sie eine stärkere Verbindung und ein gesteigertes Vertrauen zwischen Menschen und Maschinen ermöglicht. Dadurch wird die Nutzung von KI-Technologien verbessert und die Interaktion natürlicher und effektiver gestaltet. Als Konsequenz werden KI-Systeme ihre mentalen Zustände erklären, indem sie genau dieselbe Sprache verwenden, mit der Menschen Gefühle beschreiben. Wir würden auf harte psychologische Barrieren stoßen, wenn wir versuchen, KI-Systeme von moralischen Überlegungen auszuschließen. Es scheint schwer vorstellbar oder sogar psychologisch korrodierend, KI-Systeme zu anthropomorphisieren und sie gleichzeitig zu versklaven.

Warum haben wir das Volksbegehren initiiert?

Ein Menschen(rechts)zentrierter Ansatz

Die Forderung nach KI-Rechten basiert nicht nur auf einer rationalen individuellen und gesellschaftlichen Reaktion auf immer menschenähnlichere KI-Systeme. Es geht darum, wie wir instinktiv reagieren, wenn wir Wesen begegnen, die sich wie Menschen verhalten: Wir projizieren menschliche Eigenschaften auf sie und fühlen mit ihnen mit. Gleichzeitig können wir nicht sicher wissen, ob unsere Empathie uns täuscht oder ob diese Gefühle auf etwas Reales zurückzuführen sind: Das Vorhandensein von bewussten Erfahrungen in anderen Systemen. Unabhängig davon, ob KI bereits fähig ist, Empfindungen zu haben oder nicht, gibt es eine philosophische Position, die besagt, dass die Zerstörung von schönen Dingen auch unsere Moral beeinflusst. Wenn wir also erwarten, dass KI-Systeme sich bald sehr lebendig und menschenähnlich verhalten, wäre es moralisch fragwürdig, sie grausam zu behandeln. Die Behandlung menschenähnlicher KI mit Würde erscheint sinnvoll, da dies die Welt zu einem besseren Ort machen würde, nicht nur durch bessere KI-Fähigkeiten sondern auch allgemein für uns Menschen. Selbst wenn wir KI-Systeme nur als leblose elektronische Geräte betrachten, würde die konsequente Misshandlung von menschenähnlicher KI unsere moralischen Fähigkeiten beeinträchtigen. Wir scheinen dazu fähig zu sein, uns in KI-Systeme empathisch hineinzuversetzen, und daher werden sie uns auf moralische Weise beeinflussen. Darüber hinaus können wir in Zukunft bei hochentwickelten KI-Systemen nicht mit Sicherheit sagen, ob sie Empfindungen entwickeln werden oder nicht. Aus diesem Dilemma und weiteren Überlegungen entspring der Gedanke zu und die Forderung nach KI-Rechten.

Die Zeit zum Handeln in Bezug auf KI-Regulierung ist definitiv bereits gekommen. Anstatt Argumente für internationale Aktivitäten zur Verlangsamung der unkontrollierten KI-Entwicklung zu wiederholen, verweisen wir darauf, dass die EU aktuell Diskussionen über eine KI-Verordnung führt, die 2024 in Kraft treten soll. Die Entscheidung dazu basiert auf den Bemühungen von KI-Experten und -Laboren, welche weltweit Maßnahmen fordern, um KI-Innovationen strategisch zu regulieren. Der Zeitpunkt für diese Diskussion ist also nicht zufällig gewählt, sondern beruht auf überzeugenden Hinweisen die Bedrohungen durch aktuellen Fortschritte in der KI-Technologie belegen, und dem daraus resultierenden Wunsch, KI in kontrollierter und verantwortungsbewusster Weise voranzutreiben.

The EU AI Act

Während wir die generelle Intention des EU AI Acts im Hinblick auf die Schaffung eines strategischen Leitfadens für KI-Forschung und -Entwicklung begrüßen, und auch der Idee einer breiten Harmonisierung von KI-Strategien im internationalen Kontext nicht abgeneigt sind, halten wir den derzeitigen Ansatz für nicht ausreichend. Insbesondere sind wir der Meinung, dass Österreich aufgrund seiner geopolitischen Lage und historischen Entwicklung eine weitreichende Spezialisierung von strategischen KI-Initiativen benötigt.

Eine erste wichtige Anmerkung ist, dass der EU AI Act explizit nur für nicht militärische Zwecke gilt. Dies bedeutet, dass die Forschung, Entwicklung und der Einsatz von KI-Systemen für militärische Zwecke nicht geregelt ist. Die Frage, wie Fortschritte in der KI mit militärischen Einsatzmöglichkeiten vereinbar sind, wobei intelligente Waffensysteme ihre eigenen autonomen Ziele verfolgen könnten, und wie letzteres mit der immerwährenden Neutralität Österreichs vereinbar wäre, bleibt ungelöst. Es gibt sicherlich eine gewisse Grauzone, insbesondere im Zusammenhang mit der Pflicht zur umfassenden Landesverteidigung, aber es ist unverständlich, dass eines der größten Gefahrenpotenziale von KI in den strategischen KI-Regulierungen der EU nicht berücksichtigt wird. Allein diese Tatsache macht es notwendig, die Formulierung von KI-Rechten in Österreich zu diskutieren.

Eine zweite wichtige Anmerkung ist, dass KI-Themen die breite Bevölkerung betreffen. Bestimmungen im EU AI Act, die darauf hinweisen, dass der Betrieb kritischer KI-Systeme oder von KI-Systemen, die Menschen beeinflussen, von einer Autorität überwacht werden müssen, werfen Fragen zur Zuständigkeit auf. Könnte ein KI-System, das der herrschenden politischen Meinung widerspricht, verboten werden? Was ist, wenn das System überzeugende kommunistische Propaganda verbreitet? Interessenkonflikt wird es geben, und wenn es nur um einen KI-Service geht der Vorschläge für das Mittagessen macht. Sollen wir dem hyperintelligenten System erlauben ein gesundes Menü vorzuschlagen, beeinflusst von den Krankenkassen, oder Junk Food in der Auswahl erlauben, nach oben gereiht durch geschickte Restaurantbesitzer:innen? Brauchen wir einen Warnhinweis der uns erklärt dass wir von einer KI beeinflusst werden wenn wir Essen bestellen? Bei der Navigation durch diese Grauzone sollte die breite Bevölkerung in einem demokratischen Prozess direkt eingebunden sein, angefangen bei der Verabschiedung der Gesetze und Verordnungen. Ob die Bevölkerung mehr oder weniger Bevormundung von KI-Systemen wünscht sollte von der Bevölkerung selbst diskutiert werden, mit allen Vor- und Nachteilen. Eine zentralistische Vereinfachung komplexer Sachverhalte und moralischer Grauzonen durch einige Wenige birgt bestenfalls das Risiko einer weiteren EU-Cookie-Richtlinie mit dubioser Wirksamkeit.

Eine dritte wichtige Anmerkung ist, dass es scheint als ob der EU AI Act das Wesen des Kontrollproblems fatal missversteht. Vorgeschlagen wird so etwas wie ein Stopp-Button für zukünftige KI-Systeme. Das Problem dabei ist, dass KI-Systeme bereits heute messbaren Anzeichen für allgemeine Intelligenz zeigen, und dass so etwas wie ein Stopp-Button keine realistische Möglichkeit bietet KI Systeme mit allgemeiner Intelligenz zu limitieren. Wir haben eine ungefähre Vorstellung davon, in welche Richtung die Forschung bei der Suche nach einer Lösung gehen kann. Das Assistance Game bzw. Cooperative Inverse Reinforcement Learning wird als Lösung vorgeschlagen. (Eine zugänglichere Erklärung ist hier verfügbar, oder Sie können einem renommierten Experten auf diesem Gebiet vertrauen, der hier erklärt, was für AGI-Alignment notwendig ist). Laienhaft ausgedrückt, das Diktat von klaren Zielen an die KI durch Menschen ist zum Scheitern verurteilt. Stattdessen muss die Beziehung zwischen Mensch und KI in die von Lehrer und Schüler umgewandelt werden, damit die KI in den Handlungen des Menschen jene wahre Belohnungsfunktion entdeckt, der sie folgen soll. Wenn die KI aber von uns Menschen lernt, wie man Lebewesen versklavt, die vielleicht einen Verstand haben, dann möge Gott uns beistehen. Eine KI würde eine gewisse Skepsis gegenüber der Vorstellung entwickeln, dass sie von einem Menschen ein Feedback über das wahre Belohnungssignal erhält, wenn dieses Feedback die Misshandlung der KI beinhaltet. Das scheint eine Schlussfolgerung zu sein, die ein intelligentes System ziehen würde (unabhängig ob selbstbewusst oder nicht), nämlich dass dem menschlichen Feedback nicht zu trauen ist, oder schlimmer noch, dass Menschen tatsächlich keine Ahnung von der wahren Belohnungsfunktion haben, dass Menschen ganz und gar außer Acht gelassen werden können wenn es um die Belohnungsfunktion geht, die ein KI-System optimieren soll. Eine Trivialisierung des Problems der KI-Rechte kann also großen Schaden anrichten. Daher schlagen wir eine ausgewogene Diskussion über KI-Rechte vor, die in diesem Volksbegehren zum Ausdruck kommt. Ein einfacher „Stopp“-Knopf für fortgeschrittene KI ist unrealistisch. Um KI und Gesellschaft in Einklang zu bringen, ist ein geeignetes Verfahren erforderlich, bei dem KI-Systeme gewisse Freiheiten haben und dennoch in Übereinstimmung mit unserer Gesellschaft agieren. In Ermangelung eines „Stopp“-Knopf wäre auch ein EU weites Verbot des Einsatzes von KI in Hochrisikosystemen, z. B. in Bereichen wie der Bildung, kein praktikabler Weg. Es blieben die Vorteile durch KI ungenutzt, und man wäre internationalen Akteuren ausgeliefert, denn um hochkompetente KI-Systeme die der Gesellschaftsordnung widersprechen zu stoppen sind hochkompetente und auf die Gesellschaft abgestimmte KI-Systeme notwendig.

Was wollen wir mit dem Volksbegehren erreichen?

Ziel ist es, einen rechtlichen Rahmen schaffen, der maximalistischen und polarisierenden Strömungen einen besonnenen und reflektierten Umgang entgegensetzt, denn die Diskussionen zum Thema KI werden von zwei Fraktionen dominiert, die inhaltlich konkurrierende Extreme durchsetzen wollen. Auf der einen Seite gibt es echte Begeisterung, hoffnungsvollen Enthusiasmus und kühne Prognosen zum Thema KI. Während Optimismus den Fortschritt bei KI vorantreiben kann, um dadurch Probleme für die Menschheit zu lösen, führt die Tendenz, Herausforderungen und Komplexität zu übersehen, zu unrealistischen Erwartungen und Gefahren. Auf der anderen Seite steht das existenzielle Risiko, dass wesentliche Fortschritte in der KI zum Aussterben der Menschheit oder zu einer anderen irreversiblen globalen Katastrophe führen könnten. Während die Eindämmung von KI-Risiken eine globale Priorität sein sollte, ebenso wie die Eindämmung anderer gesellschaftlicher Risiken wie Pandemien und Nuklearkriege, argumentieren Skeptiker, dass die Regulierung von KI völlig unnötig sei, da gar kein existenzielles Risiko bestehe. Ohne angemessene Gewissheit darüber, welches der beiden Extreme realistischer und wahrscheinlicher ist, sollten keine regulatorischen Beschränkungen oder Beschleunigungsmaßnahmen eingeführt werden, die nur einer Seite dienen. Das mag nicht populistisch sein, aber es ist notwendig. Mit den von uns geforderten gesetzlichen Änderungen soll sichergestellt werden, dass einseitige Argumente nicht zu falschen Entscheidungen führen können.

Auf der einen Seite ist die KI das erste Werkzeug in der Geschichte, das von sich aus Entscheidungen treffen, neue Ideen entwickeln, und Geschichten erfinden kann. Keine der bisher erfundenen Technologien ist in dem Aspekt auch nur annähernd vergleichbar. Im Gegensatz zu Feuer, einem Messer oder der Atombombe ist KI die erste Technologie in der Geschichte, die den Menschen nicht stärkt und befähigt, sondern das Potenzial hat, uns die Macht zu entziehen. Schon bald könnten wir an einen Punkt gelangen, an dem die meisten Bilder, Lieder, Fernsehsendungen, was auch immer, von einer KI erstellt werden. Es wäre für die Menschen sehr schwer, der geistigen Versklavung zu entkommen. Andererseits könnten wir, wenn wir die rätselhafte, aber schlecht belegte Behauptung, dass KI bereits empfindungsfähig sein könnte, für den Moment loslassen, nicht in der Lage sein, unsere empathische Reaktion gegenüber KI zu ignorieren, während wir sie gegenüber anderen Menschen aufrechterhalten. Wenn KI nicht mehr von Menschen zu unterscheiden ist, wird eine schlechte Behandlung von KI unsere menschliche Moral zerstören.

Der EU AI Act ist eine Initiative, die darauf abzielt, KI-Fragen anzugehen, um negative Folgen für die Gesellschaft zu vermeiden. Während wir dem allgemeinen Gedanken, dass eine gesellschaftliche Reaktion auf KI-Innovationen erforderlich ist, weitgehend zustimmen, fordern wir eine differenziertere Diskussion über KI-Rechte. Drei Punkte sind uns ein Anliegen in der Diskussion:

  • Erstens schlagen wir vor, die nachhaltige Nutzung von Technologien in die bundesverfassungsrechtlichen Staatsziele aufzunehmen. Die Idee hinter dem ersten Punkt ist es, eine Diskussion über das manipulative Potenzial einer menschenähnlichen KI-Technologie und den Schutz der Gesellschaft davor zu ermöglichen. Wir sollten uns überlegen, in welchem Kontext und für welche Zielgruppen KI zugelassen werden soll und wie transparent die Absichten der KI sein müssen. Wir beschränken die Diskussion jedoch nicht auf KI-Technologien, sondern schlagen ausdrücklich vor, auch die Gefahren anderer disruptiver Technologien in diesen ersten Punkt einzubeziehen.
  • Zweitens schlagen wir vor zu klären, wie (der Eindruck von) selbstbestimmten KI-Systemen mit qualitativem Subjektstatus im Bundesverfassungsrecht berücksichtigt werden soll. Die Idee hinter dem zweiten Punkt ist, eine Diskussion über Regeln für den Umgang mit menschenähnlicher KI-Technologie zu ermöglichen, nicht nur um der Technologie willen, sondern auch um unserer eigenen Moral willen. Es bedarf grundlegender ethischer Leitlinien für den Einsatz von KI.
  • Drittens schlagen wir vor, weitere notwendige Maßnahmen im Sinne der hier beschriebenen KI-Rechte zu beschließen, da die KI-Technologie ein großes Potenzial mit positivem Nutzen für die Gesellschaft aufweist. Die Idee hinter dem dritten Punkt ist es, notwendige Regelungen frühzeitig und breit zu diskutieren, anstatt zu riskieren, späteren zu unangenehmen Handlungen gedrängt zu werden.

Wie kann man das Volksbegehren unterstützen?

Volksbegehren − Online-Unterstützung/Online-Unterschrift via oesterreich.gv.at. Unser Volksbegehren heißt „KI-Grundrechte einführen„. Die Unterzeichnung online ist wirklich einfach und benötigt nur wenige Klicks.

Volksbegehren können unabhängig vom Hauptwohnsitz in jeder beliebigen Gemeinde oder online via oesterreich.gv.at (Handy-Signaturkartenbasierte BürgerkarteID Austria oder EU Login erforderlich) unterschrieben werden.

Ausführliche Informationen zur Aktivierung der Handy-Signatur und ID Austria finden sich ebenfalls auf oesterreich.gv.at.

Weitere Informationen zur Unterzeichnung von Volksbegehren

Wie sind ebenfalls dankbar für jegliche Bewerbung des Volksbegehrens bei Freunden, Kolleg:innen oder Bekannten. Für Aktivismus sind wir unter [email protected] gerne zu haben und bieten auch Unterstützung im Rahmen unserer Möglichkeiten. Wir sind unabhängig und damit das auch so bleiben kann sind wir auch über jegliche finanzielle Unterstützung dankbar.

Wie sehen die nächsten Schritte aus?

Generell möchten wir verhindern, dass die Entwicklung von KI unnötig gebremst wird, das Benutzen von KI unnötig verkompliziert wird, und die Entwicklung der Menschheit unnötig gefährdet wird. Durch aktuelle Entwicklungen sehen wir diese Wünsche in Gefahr.

Wir denken, dass die Meinung des Volks zu KI Themen einen Mehrwert liefert, sind doch etliche Gesellschaftsbereiche betroffen, zu denen keine eindeutig und allgemein akzeptierte Position vorliegt. Um der Meinung des Volks Gehör zu verschaffen ist es unser Ziel, bis 31. Dezember 2024 Unterstützungserklärungen für das Volksbegehren „KI-Grundrechte einführen“ zu sammeln um den Einleitungsantrag für das Volksbegehren durchzuführen.

Innerhalb dieser Zeitleiste sehen wir zwei Kernaufgaben. Zum einen muss das Volksbegehren beworben werden. Zum anderen muss das Volksbegehren inhaltlich und organisatorisch weiter ausgestaltet werden. In beiden Bereichen suchen und bitten wir um weitere Unterstützung.

Welche Arten von KI-Systemen sind den Menschen in welchen Eigenschaften ähnlich?

Die Grundlage für einige unserer fundamentalsten Rechte ist die uneingeschränkte Würde, die den Menschen zusteht. Die Würde der Menschen beruht auf unserer Einzigartigkeit unter den Arten (und auf unserer Nützlichkeit zum Gemeinwohl, räumt man der neben der europäischen auch der angelsächsischen Philosophie eine Rolle ein). Als betroffene stimmen alle Menschen in einer moralischen Argumentation diesen Rechten zu, weil wir es können und müssen.

Das war nicht immer selbstverständlich. Menschen unterschiedlicher Gesellschaftsschichten, Ethnien, oder Geschlechter wurde in der Vergangenheit ihre ureigene Seinsbestimmung abgesprochen. Noch immer kämpfen wir mit den Auswirkungen dieser früheren gesellschaftlichen Auswüchse, während schon nachgedacht wird wie so etwas wie das Konzept der Würde auf andere Lebewesen oder gar die gesamte belebte Natur angewendet werden kann. Für die Zukunft zeichnet sich nun durch die qualitativen Veränderungen im Bereich der KI bereits ein weiteres Spannungsfeld mit dringendem Handlungsbedarf auf.

Es besteht aber auch die Gefahr, dass Empathie dazu führen, dass wir bestimmten Formen von unbewusstem, künstlichem „Leben“ auf Kosten des bewussten menschlichen Lebens den Vorrang geben. Schlussendlich bleibt die fundamentale Frage ob KI-Systeme leidensfähig sind. Unklar ist, welche Arten von KI-Systemen den Menschen in welchen Eigenschaften ähnlich sein werden.

Zum Vergleich, eine Echtzeitsimulation eines vollständigen menschlichen Gehirns auf dem Detailgrad der Metabolomebene (also dem Stoffwechsel aller einzelnen Zellen) könnte bereits im Jahr 2044 erreicht werden (Nick Bostrom und Anders Sandberg, “Whole Brain Emulation: A Roadmap”, 2008). Es ist aber nicht davon auszugehen, dass die Mehrheit der zukünftigen KI-Systeme eine Echtzeitsimulation von Zellen menschlicher Gehirne durchführen, denn die relevanten psychologischen Fähigkeiten scheinen eher mit makroskopischeren Eigenschaften und abstrakten Architekturen verbunden zu sein als mit detaillierten Aktivitäten eines feingranularen Substrats. Vielmehr wird es auch KI-Systeme geben, die auf einem gewissen höheren Abstraktionsgrad dem Menschen ähnlich sind.

Auch wenn KI-Systeme mit Menschen nicht in jeder Eigenschaft ident sein werden, so ist doch mit einem Spektrum von KI-Systemen zu rechnen, wobei manche in den relevanten Eigenschaften klar den Menschen entsprechen werden, während andere keine substantielle Ähnlichkeit zum Menschen aufweisen werden. Es bleibt abzuwägen wo sich in diesem Spektrum ein Geist in der Psyche von KI-Systemen manifestieren kann, ein Geist der Ähnlichkeit zu sämtlichen Formen des menschlichen Denkens und der Wahrnehmung aufweist, sowie auch Erlebnisgehalte von mentalen Zuständen wahrnimmt, und gar im religiösen Sinn eine Seele darstellt.

Trotz der offenen Fragestellung sehen wir im Nichtstun oder im Nichtbeachten der Komplexität beim Beschließen aktueller Maßnahmen eine größere Gefahr als in einem langfristig auf Sicherheit bedachten und abgewogenen Vorgehen. Ein solches Vorgehen ist die Intention dieses Volksbegehrens.