Artikel in der Zeitschrift für Rechtspolitik

Regeln für Wahlkämpfe im digitalen Zeitalter

12.04.2019 | Die kommende Europawahl wird aufgrund technischer Möglichkeiten wie social bots, microtargeting und dark ads anders als alle anderen. Analysen aktueller Wahlkämpfe in Europa und den USA zeigen deutliche Einflussnahme aus dem In- und Ausland mithilfe neuester Techniken. Prinzipien des Wahlrechts und der freien, transparenten Meinungsbildung sind ins digitale Zeitalter zu übertragen. Nachfolgend werden die Rolle des Internets auf politische Kampagnen im Zusammenhang mit Wahlen thematisiert und Handlungsvorschläge unterbreitet.

I. Neue Risiken: Moderne Wahlkämpfe finden im Netz statt

2019 stehen mehrere Wahlen an: drei Landtagswahlen im Osten der Republik, die Wahl zur Bürgerschaft in Bremen und die Wahl zum Europaparlament im Mai. Diese Wahlen werden anders als die anderen. Neu in Wahlkämpfen im digitalen Zeitalter ist: Neben erkennbaren Anzeigen und Plakaten kommen Werkzeuge hinzu, die nicht als Wahlkampf erkennbar sind.

Propaganda und Beeinflussung finden im Netz grundsätzlich auf neue Art statt und sind Teil hybrider Taktiken, also einer Kombination aus klassischen Militäreinsätzen, wirtschaftlichem Druck, Computerangriffen bis zu Propaganda in den Medien und sozialen Netzwerken.

Die Kommunikation hat sich zudem mehr in den virtuellen Raum verlagert, wo die Hürden für die Teilnahme am öffentlichen Diskurs niedriger sind als je zuvor. Meinungsaustausch und Organisation politischer Aktionen sind rasant vereinfacht. Einige träumten von der „Liquid democracy“, die jede und jeden Einzelnen unmittelbar an politischen Entscheidungen beteiligt.1 Zunächst lief es gut. Der „Arabische Frühling“ wurde wesentlich über Facebook, Twitter und online-Blogs organisiert und befördert.2 Politische Debatten werden mehr und mehr über soziale Netzwerke gesteuert. Doch bei Facebook, Twitter, Youtube, Instagram und Co. hat sich etwas verändert: Organisierte hate speech, Massendesinformationskampagnen, dark ads, dark social, microtargeting und vieles mehr findet dort statt.

Der Einsatz dieser Methoden breitet sich aus (zB Präsidentschaftswahlen USA, Referendum zum Brexit). So sieht es das britische Parlament: „some malicious forces use Facebook to threaten and harass others, to publish revenge porn, to disseminate hate speech and propaganda of all kinds, and to influence elections and democratic processes“.3

1. Hate Speech

Den ersten großen shitstorm erlebte ich im Januar 2016: Die gegen mich auf Facebook getätigte Äußerung ua „Man sollte Dich köpfen“ stufte die Staatsanwaltschaft als zulässige Meinungsäußerung ein und stellte das Ermittlungsverfahren gegen den Facebook-Nutzer ein. Die Staatsanwaltschaft berief sich auf das BVerfG4, das die Voraussetzungen für das Vorliegen strafbarer Schmähkritik geschärft hatte. Außerdem könne der Urheber des Facebook-Eintrags nicht festgestellt werden, da die in Irland ansässige Facebook Inc. auf ein Auskunftsersuchen nicht reagiert habe.

Handelt es sich um die negative Begleiterscheinung der digitalisierten Kommunikation in den sozialen Netzwerken? Oder um ein politisches Phänomen? Ich besuchte die Verfasser von Hasskommentaren und beschrieb das später.5 Heute wissen wir: Es handelt sich nicht nur um Einzelpersonen, sondern auch um ein politisches Phänomen.

2. Fake News und Desinformation

Zu hate speech gesellten sich so genannte Fake News. Beispiel: Als im Dezember 2016 ein Flüchtling verdächtigt wurde eine neunzehnjährige Studentin ermordet zu haben, tauchte auf Facebook ein „sharepic“ auf. Es zeigte ein Foto von mir mit dem Satz: „Der traumatisierte Junge hat zwar getötet, man muss ihm aber jetzt trotzdem helfen.“ Als Quelle wurde die Süddeutsche Zeitung angegeben. Das Bild wurde in kürzester Zeit unendlich viele Male geteilt. Es dauerte drei Tage bis der Post entfernt wurde. Wenn Fake News gelöscht werden, haben sie ihr Ziel in der Regel aber bereits erreicht: Sie haben sich in den Timelines und in den Köpfen zahlreicher Menschen festgesetzt. Mit Gegendarstellungen lässt sich der angerichtete Schaden nicht mehr beheben.

Der Vorwurf, man dürfe in Deutschland seine Meinung nicht frei sagen, hält sich hartnäckig. Das ist für mich der erfolgreichste Fall von Fake News. Wobei der Begriff „Fake News“ kaum zutrifft. Der Bericht der Expertengruppe der Europäischen Kommission empfiehlt das Wort „Desinformation“. „Desinformation“ ist demnach6: nachweislich falsche oder irreführende Informationen, die mit dem Ziel des wirtschaftlichen Gewinns oder der vorsätzlichen Täuschung der Öffentlichkeit konzipiert, vorgelegt und verbreitet werden und öffentlichen Schaden anrichten können. Auch die Stiftung Neue Verantwortung, die das Phänomen im Bundestagswahlkampf 2017 untersucht hat, versteht Fake News vor allem als Desinformation.7 Einer Eurobarometer-Umfra-


Künast: Regeln für Wahlkämpfe im digitalen Zeitalter(ZRP 2019, 62)

ge zufolge sorgen sich drei von vier Europäer/innen vor gezielter Desinformation im Netz.8 Diese Sorgen sind berechtigt. Die acht erfolgreichsten Falschmeldungen hatten mehr Facebook-Interaktionen als fast alle Artikel der größten Nachrichtenseiten in Deutschland.9 Die Europäische Kommission schreibt zur Lage der Union 2018: „Jüngste Fälle haben gezeigt, dass Bürger das Ziel von Massendesinformationskampagnen im Internet werden können, die darauf abzielen, Wahlen die Glaubwürdigkeit und Legimitation zu nehmen.“10

3. Bots

Durch ihre verstärkende Wirkung können social bots, also eine Software, die in sozialen Netzwerken als menschlicher User getarnt ist,11 vermeintliche Mehrheitsverhältnisse und die gesellschaftliche Bedeutung von Themen vortäuschen.12 Diskussionen können inhaltlich verzerrt und Desinformationen massenhaft verbreitet werden. Die Verbreitung von durch Algorithmen ausgelöster automatischer Kommunikation und Information nimmt sichtbar stark zu.

4. Microtargeting

Beim Microtargeting werden gezielt ausgewählte Gruppen von Menschen mit auf sie abgestimmten Nachrichten angesprochen. Dies geschieht über soziale Netzwerke und Internetnachrichtenkanäle. „Ein Microtargeting durch psychometrische Analyse großer Datensätze (Big Data) scheint besonders in Wahlkämpfen mit knappen Mehrheitsverhältnissen relevant, um Wählermeinungen zu beeinflussen.“13Parteien versuchen seit jeher ihre Zielgruppe passgenau anzusprechen. Neu ist die Verknüpfung einer großen Menge von Daten mit psychometrischen Ansätzen. Die Firma Cambridge Analytica soll Informationen aus Millionen Facebook-Profilen, die sie nicht hätte bekommen dürfen, illegal ausgewertet und für ihre Zwecke genutzt haben.14 Facebook Inc. droht eine Strafe von mehreren Milliarden Dollar, die höchste je verhängte Strafe in dem Bereich.15

5. Dark ads

Zu den Werbemöglichkeiten bei Facebook gehören unter anderem dark ads, die auf bestimmte Zielgruppen zugeschnitten sind, aber nicht auf der Seite der Partei oder des Kandidaten auftauchen. Die in diesen Gruppen entstehenden Filterblasen machen einen freien Diskurs unmöglich. Das genaue Ausmaß der Anzeigenschaltung in sozialen Medien kennen wir bis heute nicht. Klar ist bis heute nur, dass viele Accounts auf Facebook gelöscht wurden.16

Wahlen werden zudem nicht nur durch Desinformation beeinflusst, sondern auch dadurch, dass bestimmte Themen für herausragend gehalten werden, die es gar nicht sind. So kaufte die AfD-Fraktionsvorsitzende Weidel mit einer Großspende aus der Schweiz Likes bei Facebook.17 Damit erweckte sie den Eindruck, als würden Tausende ein Thema für sehr relevant halten. Dies ist auch eine Irreführung und Manipulation.

II. Gegenwärtige Rechtslage und ihre Schwächen

1. Alte Regeln: Wahlrechtsgrundsätze und Wahlwerbung im analogen Zeitalter

In der Bundesrepublik Deutschland gelten für die Wahl zum Deutschen Bundestag das Bundeswahlgesetz und die Bundeswahlordnung. Die Abgeordneten des Bundestags werden in „allgemeiner, unmittelbarer, freier, gleicher und geheimer Wahl“ gewählt, so Art. 38 GG. Auch im Vertrag über die Europäische Union ist in Art. 14 III festgehalten, dass die Europawahl „allgemein, unmittelbar, frei und geheim“ ablaufen muss. Art. 20 II GG zu den Grundbedingungen des demokratischen Verfassungsstaates: „Alle Staatsgewalt geht vom Volke aus. Sie wird vom Volke in Wahlen und Abstimmungen und durch besondere Organe der Gesetzgebung, der vollziehenden Gewalt und der Rechtsprechung ausgeübt.“

Der Grundsatz des freien Wahlrechts bedeutet: Die Wahl muss frei sein von Zwang, Tricks und Druck. Wahlwerbung wird dabei geschützt durch Art. 5 I, III und Art. 21 GG.

Die bestehenden einfachgesetzlichen Regelungen zum Wahlrecht, zur Parteienfinanzierung und zum Datenschutz geben dem Handeln im Wahlkampf einen Rahmen vor.

Nun geht es um die Frage: Wie schaffen wir Transparenz um den Grundsatz freier Wahlen auch im digitalen Zeitalter zu gewährleisten?

2. Reformbedarf

Der wissenschaftliche Dienst des Deutschen Bundestages bemerkt in der Ausarbeitung ‚Rechtliche Rahmenbedingungen des Wahlkampfs im Internet‘: „Zudem haben sowohl die Abstimmung über den Brexit in Großbritannien als auch die Wahl von US-Präsident Donald Trump oder auch Hacking-Attacken auf die Kampagne von Emmanuel Macron im französischen Wahlkampf Beispiele dafür geliefert, wie neue Formen der Wahlwerbung über das Internet zu einem relevanten Faktor der Meinungsbildung bei Referenden und Wahlen geworden sind. […] Die neuen Kommunikationsmöglichkeiten über das Internet und soziale Medien werden in allen Ländern als Herausforderung für Wahlen und demokratische Entscheidungsprozesse angesehen.“18

Mehrere Länder haben bereits Versuche unternommen, gegen Desinformation vorzugehen und online Wahlwerbung zu regulieren, ua Frankreich und Großbritannien. Die französische Nationalversammlung hat zwei Gesetze gegen die Verbreitung von gezielten Falschnachrichten beschlossen. Sie sollen ermöglichen, dass sich ein Kandidat im Eilverfahren gegen Falschinformationen im Internet wehren kann. Ein Richter könnte dann beispielsweise Internetanbieter ver-


pflichten, den Zugang zu diesen Inhalten zu sperren. Bedingung wäre, dass die Falschinformationen vorsätzlich und massiv verbreitet werden und geeignet sind, die Wahl zu beeinflussen.

„EU vs Desinformation“ ist eine Kampagne des Europäischen Auswärtigen Dienstes, durchgeführt von der East StratCom Task Force. Die Abteilung der Europäischen Kommission soll von einer auf 50 Stellen in 2020 aufgestockt werden. Ob das genügt, ist ungewiss. Kommissar Ansip sagt: „Fünf Millionen Euro sind nicht genug. Wir wissen, dass die Russen riesige Summen investieren, um diese Pro-Kreml-Propaganda zu unterstützen. […] Russia Today, Sputnik, andere Quellen… 1,1 Mrd. Euro pro Jahr!“19

Politische Wahlkämpfe müssen ein transparenter Wettstreit der Ideen sein. Und nicht ein Wettstreit darum, wer die meisten Daten sammelt und die findigsten technischen Lösungen zur intransparenten Beeinflussung der Wählerinnen und Wähler einsetzt. Doch spätestens der Fall Cambridge Analytica machte uns das Ausmaß technischer Möglichkeiten bewusst. So schreibt das Digital, Culture, Media Committee des House of Commons20 im Februar 2019 in seinem Abschlussbericht zu Cambridge Analytica: „We have always experienced propaganda and politically-aligned bias, which purports to be news, but this activity has taken on new forms and has been hugely magnified by information technology and the ubiquity of social media“.

Aus einer Antwort der Bundesregierung auf eine Kleine Anfrage Bündnis 90/Die Grünen21 zum Fall Cambridge Analytica: „Ein Entwicklungsrahmen für diese Fortentwicklung, der in ein modernes Datenrecht münden kann, soll durch die Datenethikkommission aufgezeigt werden.“ Bis dahin setzten die Bundesregierung und die Europäische Kommission jedoch weiterhin auf freiwillige Maßnahmen. Das dauert.

III. Mögliche Reformantwort

Was tun, um das Wahlrecht an das digitale Zeitalter anzupassen?

Der von der EU Kommission vorgestellte Plan eines Verhaltenskodexes, der Online-Plattformen und die Werbeindustrie verpflichtet, kann dabei nur ein erster Schritt sein:

– Verbesserte Kontrolle der Platzierung von Werbung, Verringerung der Einnahmen für Desinformationslieferanten auch aus dem Ausland, Einschränkung der Targeting-Optionen für politische Werbung,

– Neue Speicherorte für die Schaffung von Transparenz gesponserter Inhalte,

– Schließung von Scheinkonten,

– Einführung von Indikatoren für die Vertrauenswürdigkeit von Informationsquellen,

– Detaillierte Informationen über das Verhalten von Algorithmen, deren Priorisierung von Inhalten sowie ihrer Testverfahren,

– Algorithmische Anpassung für einfaches Finden von vertrauenswürdigen Quellen,

– Klare Kennzeichnungsregeln für social bots,

– Zugang zu Daten von Plattformen für unabhängige Faktenprüfer.

Um demokratische Diskurse vor intransparenter Einflussnahme effektiv zu schützen, ist ein ganzes Bündel an Maßnahmen nationalstaatlich und europäisch nötig. Denn die „Neue Rechte“ weiß die sozialen Medien gerade deshalb zu nutzen, weil sie sie als Werkzeug zur Manipulation versteht. Weil sie mit Begriffen wie „Lügenpresse“ den Boden für eine massive Einflussname bereitet.

Es bedarf jetzt starker Anstrengungen zum Schutz digitaler Infrastrukturen, zur effektiven wie rechtsstaatlichen Überprüfung strafrechtlich relevanter Inhalte. Außerdem braucht es eine Pflicht zur Kennzeichnung von social bots oder bei der Schaltung von personalisierter Werbung (dark ads). Anbieter müssen an ihre gesellschaftliche Verantwortung erinnert werden, sie können sich nicht einfach als Marktplatz ohne Pflichten definieren.

Wir brauchen unabhängige Informations- und Beratungsstellen zum Umgang mit Phänomenen wie „Hate Speech“, „Desinformation“ und „Doxing“, wobei mindestens eine Finanzierung durch eine verpflichtende Abgabe von Diensteanbietern zu prüfen ist.

1. Hate Speech

Das handwerklich schlechte Netzwerkdurchsetzungsgesetz sollte gegen die Verrohung des Diskurses im Netz Abhilfe schaffen. Doch wir wissen: Dieses Gesetzt schützt unsere Demokratie nicht. Eine Balance zwischen Persönlichkeitsschutz und Meinungsfreiheit herzustellen, ist das Ziel. So fehlen unter anderem Vorgaben zu Beschwerdemechanismen und eine Clearingstelle gegen ungerechtfertigte Löschungen. Hierbei bedarf es zum Schutz der Persönlichkeitsrechte und der Meinungsfreiheit effektiver Mechanismen gegen Verstöße, wie auch zur Überprüfung gegebenenfalls unberechtigt erfolgter Sperrungen und Löschungen von Inhalten und Accounts durch unabhängige Stellen.

Die grüne Bundestagsfraktion hat darum mit ihrem Antrag „Netzwerkdurchsetzungsgesetz weiterentwickeln – Nutzerrechte stärken, Meinungsfreiheit in sozialen Netzwerken sicherstellen“ Verbesserungsvorschläge in das parlamentarische Verfahren eingebracht.22 […] Wir brauchen vor allem eine wirksame Gesamtstrategie gegen die Verrohung des Diskurses und Einschüchterung engagierter Menschen im Netz.

2. Fake News und Desinformation

Facebook, Twitter und Youtube haben sich auf Betreiben der EU verpflichtet, stärker gegen Desinformation und fake accounts auf ihren Plattformen vorzugehen. Eine Selbstverpflichtung der im Netz werbenden Wirtschaft, auf die Schaltung von Werbung auf Webseiten zu verzichten, deren Geschäftsmodell ganz überwiegend auf die Verbreitung von zu definierenden Falschmeldungen (Desinformation) ausgerichtet ist, ist festzuschreiben.

Gut ist das europäische Vorgehen mit dem „Aktionsplan gegen Desinformation“. Wir brauchen eine schnelle Kooperation der nationalen Wahlbehörden, ein Frühwarnsystem gegen hybride Bedrohungen. Der Aufbau eines EU-weiten Netzwerks aus spezialisierten Zentren, Denkfabriken, NGOs


und anderen relevanten Akteuren muss vorangetrieben werden, um systematische Faktenchecks und die Aufdeckung und Zuordnung von Desinformationen europaweit besser zu bündeln.23 Verstärkte Anstrengungen sind nötig, um in der EU ein Informationsangebot für Bürger/innen und Journalist/innen anzubieten und ein Gegengewicht zu etablieren. Die Task Force für strategische Kommunikation der EU (East StratCom) liefert hier regelmäßig europäische Aufklärung auf Grundlage von „Open intelligence“. Sie sollte auch weiterhin öffentlich über Falschnachrichten und Instrumente zur Erkennung von Desinformation berichten.

3. Bots

Telemediendiensteanbieter müssen

– von ihnen bereitgestellte Informationen, die von social bots kommen, kennzeichnen,

– ihre Nutzer verpflichten, von ihnen bereitgestellte Informationen, die durch ein automatisiertes elektronisches Kommunikationssystem erzeugt werden (sog. social bots), leicht erkennbar, unmittelbar erreichbar und ständig verfügbar als auf diese Weise erzeugt zu kennzeichnen.

Eine entsprechende Ergänzung des § 2 NetzDG (fake profile) wäre sinnvoll. § 3 NetzDG ist so zu überarbeiten, dass soziale Netzwerke benutzerfreundliche Meldewege zu social bots und fake profile bereit halten sollen.

4. Microtargeting und dark ads

Politischer Streit und die Auseinandersetzung über den besten Weg sind Lebenselixiere unserer Demokratie. Klar ist: Parteien und Interessensgruppen dürfen Wählerinnen und Wähler während des Wahlkampfes nicht unlauter beeinflussen. Es muss einfach sichtbar sein, wenn man mit social bots kommuniziert oder gekaufte Werbung – also dark ads gezeigt werden.

Ein Schritt, den Parteien jetzt gehen können: eine Selbstverpflichtung für faire Wahlkämpfe. Der Bundesvorstand von Bündnis 90/Die Grünen beschloss 2017 Leitlinien für einen fairen Wahlkampf.24 Im Wahlkampf geschaltete Kampagnen in den sozialen Netzwerken sollen veröffentlicht werden. Darüber hinaus sind die Veröffentlichungsgrenzen für Parteispenden abzusenken und diese Regeln auch dringend für Parteisponsoring einzuführen.25

Die Anbieter sozialer Netzwerke unternehmen bereits kleine erste Schritte, um politische Anzeigen transparent zu machen und politische Wahlwerbung vor ausländischer Einflussnahme zu schützen. Doch es braucht ein entschlossenes, europaweites Vorgehen.

IV. Fazit

Freie Wahlen im digitalen Zeitalter, das ist nicht trivial, sondern heute eine große Herausforderung. Sie zu schützen ist eine dringende aktuelle Aufgabe. Die Bundesregierung muss sich endlich mit der Thematik und einer möglichen Regulierung beschäftigen. Die EU muss sich jetzt gemeinsam gegen Cyberangriffe wehren.


* 

Die Autorin, Bundesministerin a. D., ist Mitglied des Deutschen Bundestages für Bündnis 90/Die Grünen. Sie war Vorsitzende des Ausschusses für Recht und Verbraucherschutz.

1 

Bundeszentrale für politische Bildung, Flüssige Betriebssysteme. Liquid democracy als demokratische Machttechnologie, http://www.bpb.de/apuz/149620/fluessige-betriebssysteme-liquid-democracy-als-demokratische-machttechnologie?p=all. 

2 

Hofheinz in Schneiders, Der Arabische Frühling, DOI 10.1007/978-3-658-01174-1_7, Wiesbaden, 2013.

3 

House of Commons, Disinformation and ,fake news‘: Final Report, 2019, https://publications.parliament.uk/pa/cm201719/cmselect/cmcumeds/1791/1791.pdf.

4 

NJW 2016, 2870.

5 

Künast, Hass ist keine Meinung. Was die Wut in unserem Land anrichtet, 2017.

6 

Europäische Kommission, „Final report of the High Level Expert Group on Fake News and Online Disinformation“, 2018, https://ec.europa.eu/digital-single-market/en/news/final-report-high-level-expert-group-fake-news-and-online-disinformation.

7 

Vgl. https://www.stiftung-nv.de/sites/default/files/snv_fakten_statt_fakes.pdf/.

8 

Vgl. https://ec.europa.eu/germany/news/20181126-umfrage-einflussnahme-auf-wahlen_de.

9 

Vgl. https://www.buzzfeed.com/de/karstenschmehl/falschmeldungen-facebook-2018-fakes-luegen-fake-news.

10 

S. http://europa.eu/rapid/press-release_IP-18-5681_de.htm.

11 

Oxford Internet Institute, University of Oxford, Junk News and Bots during the German Parliamentary Election, https://comprop.oii.ox.ac.uk/research/junk-news-and-bots-during-the-german-parliamentary-election-what-are-german-voters-sharing-over-twitter/.

12 

Wissenschaftlicher Dienst Deutscher Bundestag, Algorithmen Einzelfragen zu Instrumenten und Regelansätzen, 2017, https://www.bundestag.btg/Wissen/Dossiers/Ablage/7274/Ausarbeitung_7274_0.pdf. 

13 

Kind/Weide, Themenkurzprofil Nr. 18 des Büros für Technikfolgenabschätzung beim Deutschen Bundestag, Microtargeting: psychometrische Analyse mittels Big Data, 2017, https://www.tab-beim-bundestag.de/de/pdf/publikationen/themenprofile/Themenkurzprofil-018.pdf.

14 

S. https://www.tagesspiegel.de/politik/vor-den-us-kongresswahlen-im-november-facebook-deckt-kampagne-zur-wahlmanipulation-auf/22867392.html.

15 

Vgl. http://www.spiegel.de/netzwelt/netzpolitik/facebook-soll-milliarden-bussgeld-in-datenskandal-um-cambridge-analytica-drohen-a-1253335.html.

16 

Vgl. https://www.tagesspiegel.de/politik/vor-den-us-kongresswahlen-im-november-facebook-deckt-kampagne-zur-wahlmanipulation-auf/22867392.html.

17 

S. https://www.faz.net/aktuell/politik/inland/alice-weidel-bezahlte-wahlkaempfer-mit-spende-aus-der-schweiz-15888985.html.

18 

Wissenschaftliche Dienste, Deutscher Bundestag, Rechtliche Rahmenbedingungen des Wahlkampfs im Internet im europäischen und außereuropäischen Ausland, WD 10 – 3000 – 055/17.

19 

Vgl. https://www.tagesspiegel.de/politik/europawahl-eu-legt-plan-gegen-fake-news-vor-und-beklagt-unterfinanzierung/23731626.html.

20 

House of Commons, Disinformation and ,fake news‘: Final Report, 2018, https://publications.parliament.uk/pa/cm201719/cmselect/cmcumeds/1791/1791.pdf.

21 

Drs. 19/6227.

22 

BT-Drs. 19/5950. 

23 

Drs. 19/7436.

24 

S. https://www.gruene.de/partei/2017/fuer-einen-fairen-bundestagswahlkampf-2017.html.

25 

Die Sponsoring-Einnahmen der Bundesparteitage sowie Sponsoring-Einnahmen über 10.000 Euro veröffentlicht Bündnis 90/Die Grünen.