IPW >

Rückblick auf die Ringvorlesung „Wer regiert das Internet?“

Fotos: Inci Bosnak

  • Die digitale Gesellschaft - Netzpolitik, Bürgerrechte und die Machtfrage | Markus Beckedahl


     

    Wenn man als Organisator und Moderator einen Rückblick auf die eigene Veranstaltung zu schreiben versucht, läuft man natürlich Gefahr in Lobhudelei zu enden. Dies gilt besonders, wenn die Veranstaltung hervorragend war, und das war sie tatsächlich aus unserer Sicht: Etwa 250 Gäste fanden den Weg in die ehrwürdige Alte Aula. Diese bot ihre besondere Atmosphäre, die zu Referent und Thema freilich in einer deutlichen Spannung stand, aber das machte die Kombination gerade stimmungsvoll. Die Grußworte des Geschäftsführenden Direktors des Instituts für Politische Wissenschaft, Prof. Dr. Reimut Zohlnhöfer, sowie des Lehrstuhlinhabers für Internationale Beziehungen und Außenpolitik, Prof. Dr. Sebastian Harnisch, fielen angemessen knapp und inhaltlich anregend aus. Auch ich selbst habe in meiner Ankündigung des Referenten, hoffe ich, nicht zu lang gesprochen. Markus Beckedahl brachte die 80 Vortragsfolien in etwa 50 Minuten unter, womit er selbst nicht gerechnet hatte. Und schließlich gab es eine lebhafte Diskussion mit spannenden Wortbeiträgen. Soweit, so unkritisch.

    Der Vortrag von Beckedahl und die anschließende Diskussion vor Ort lassen sich freilich auch einer differenzierteren Nachbetrachtung unterziehen. Beckedahl ist zweifelsohne ein deutscher Netzpolitiker der ersten Stunde und früher. In seinem gestrigen Vortrag unter dem Titel „Die digitale Gesellschaft – Netzpolitik, Bürgerrechte und die Machtfrage“ hat er in vier Teilen die wesentlichen netzpolitischen Streitfragen und Konfliktlinien benannt und in informativer wie amüsanter Weise erläutert. Auf eine Schilderung früherer und aktueller Praktiken der Massenüberwachung durch Staaten und Geheimdienste (Teil 1) folgten eine Ableitung der Netzneutralität aus den Ursprüngen der Internetentwicklung und ein Plädoyer für den Erhalt dieses Prinzips (Teil 2). Darauf beschrieb er die Fallstricke und Unklarheiten eines territorial gebundenen Urheberrechts (Teil 3). Schließlich problematisierte er die durch soziale Netzwerke vorangetriebene Privatisierung digitaler Öffentlichkeiten (Teil 4) und verglich diese mit den modernen Malls in der analogen Welt. Beckedahl zeigte also vor allen Dingen die großen gesellschaftlichen Probleme auf, die mit der Internetentwicklung verbunden sind und die nach gesellschaftspolitischer Gestaltung verlangen. Damit hat er das emergente Politikfeld in der Tat gut umrissen. Mögliche politische, rechtliche oder auch technische Lösungen wurden dabei allerdings nicht immer ersichtlich.

    Dieser Eindruck bestätigte sich auch in der sich anschließenden lebhaften Diskussion mit dem Publikum. Ein erster Wortbeitrag forderte zunächst weniger Alarmismus, damit die Sensibilität für dieses wichtige Thema nicht gleichsam abstumpfe. Die folgenden Fragen und Anmerkungen führten der Problem- und Defizitbeschreibung indes weitere Aspekte hinzu wie fehlendes Wissen der Nutzer und mangelnde Medienkompetenz, die Schwierigkeit des Vertrauens in Staaten und Unternehmen, die Problematisierung der Anonymität im Netz etc. Beckedahl wies die Bedenken und Anmerkungen keineswegs ab, aber deutete doch immer wieder allmähliche Entwicklungstendenzen an, etwa technische Neuerungen, Open-Source-Formate usw., um bestehende Probleme wenn nicht zu beseitigen, so doch zu lindern.

    Am Ende stand es mir als Moderator zu, Vortrag und Diskussion noch einmal zusammenzuführen. Wie gestern kann ich auch im Rückblick heute nur sagen, dass unsere eigentliche Frage, die wir der Ringvorlesung zum Titel gegeben haben, nicht beantwortet worden ist: Wer regiert das Internet? Auf diese Frage lieferte auch Beckedahl nicht die Antwort. Wie gut, denn wir haben ja noch elf Vorlesungen vor uns.

    Hier können Sie den Vortrag von Markus Beckedahl als Audio- (MP3) und Video-Mitschnitt (MP4 / OGV) herunterladen.

    Wolf J. Schünemann

     
  • Internet Governance: Theoretische und empirische Annäherungen an einen schwer fassbaren Gegenstand | Prof. Dr. Jeanette Hofmann (Alexander von Humboldt-Institut für Internet und Gesellschaft)


     

    Mit dem Vortrag von Prof. Dr. Jeanette Hofmann begann die (Sozial-)Wissenschaftliche Auseinandersetzung mit der Frage: "Wer regiert das Internet?" Jeanette Hofmann näherte sich dem Thema Internet Governance in drei Schritten: Zuerst stellte sie die empirischen Entwicklungslinien der Internet Governance dar. Zweitens beleuchtete sie aus theoretischer Perspektive den Governance-Begriff und die damit verbundenen Defizite. Im dritten Teil stellte Frau Hofmann die Idee vor, Internet Governance als Form reflexiver Koordination zu verstehen.

    Ausgangspunkt des Vortrages war der Befund, dass sich das Internet anders entwickelte als vorangegangene globale Kommunikationsnetze. Während für die "Vorgänger" des Internets eigene multilaterale Regimes gegründet wurden, bspw. die Internationale Fernmeldeunion (ITU), wurde eine solche Regelung für das Internet von Beginn an ausgeschlossen. Ziel war schon bei der Entwicklung des Internets eine weitgehend privat betriebene Struktur mit offenen Standards. Die technischen Entscheidungen wurden ab 1986 in der Internet Engineering Task Force (IETF) getroffen. Die IETF ist ein offenes Gremium, an dem jeder mit technischer Expertise partizipieren kann. Die IETF legt aber nicht autoritativ Regeln fest, sondern erarbeitet Lösungsvorschläge, die sich auf dem Markt durchsetzen müssen. Dieser Mechanismus führt mitunter zu suboptimalen Lösungen. Strittiger als die technischen Entscheidungen ist aber die Verwaltung der kritischen Internet Ressourcen (CIRs; bspw. IP-Adressen und das Domain Name System). Diese bedürfen einer zentralen Administration. Wie diese Verwaltung ausgestaltet sein soll, wurde besonders ab Mitte der 1990er Jahre debattiert. Die wachsende Zahl der Internetnutzer machte das Medium auch für wirtschaftliche Akteure zunehmend attraktiv. Schnell wurde deutlich, dass auch Domains einen Wert für Unternehmen haben und dass damit auch Urheberrechtsfragen verbunden waren. Durch diesen Problemdruck wurde 1998 die unter US-Aufsicht stehende Internet Corporation for Assigned Names and Numbers (ICANN) gegründet. Sie sollte unter anderem die Aufgabe übernehmen, Domains neu einzuführen und zu vergeben. Diese Aufgabenzuschreibung ist jedoch zunehmend umstritten. 2006 wurde aufgrund dieses Konflikts das Internet Governance Forum (IGF) gegründet. Im IGF soll über die zukünftige Administration der CIRs beraten werden. Besonders betont wurde in diesem Zusammenhang der Begriff der Multi-Stakeholder-Governance. Gemeint ist damit ein Problemlösungsansatz der für alle relevanten Akteure offen ist, der transparenten Regeln folgt und konsensbasierte Entscheidungen befördert.

    Besonders der Multi-Stakeholder-Ansatz verdeutlicht, dass bei Internet Governance nicht von einer hierarchischen Administration des Netzes gesprochen werden kann. Zur Klärung der Terminologie zeichnete Jeanette Hofmann die Entwicklung des Governance-Begriffs nach und identifizierte verschiedene Schwächen. Einerseits ist der Begriff Governance aufgrund fehlender Trennlinien nur schwer abgrenzbar. Andererseits werden nicht-intendierte Konsequenzen nicht erfasst. Um diesen Defiziten zu begegnen soll Internet Governance als Form reflexiver Koordination verstanden werden. Reflexive Koordination tritt immer in kritischen Momenten, in denen Koordination selbst koordiniert werden muss, auf. Es ist damit ein temporäres Phänomen, das nur so lange anhält, bis eine Lösung des Problems gefunden wurde. Der Erfolg reflexiver Koordination lässt sich bspw. anhand der Legitimität und Akzeptanz der erarbeiteten Lösungen messen. Mit dem Vorschlag Internet Governance als Form reflexiver Koordination zu verstehen zeigte Jeanette Hofmann Defizite in der bisherigen Debatte auf und machte deutlich, dass der Begriff erst einer klaren Definition bedarf. Ferner bot der Vortrag einen detaillierten empirischen Einblick in die unterschiedlichen Regelungsarrangements des Internets.

    Hier können Sie den Vortrag von Prof. Dr. Jeanette Hofmann als Audio- (MP3) und Video-Mitschnitt (MP4 / OGV) herunterladen.

     
  • Internet als Technik zur vollständig vernetzten Welt: Konzepte, Risiken und Perspektiven | Prof. Dr. Vincent Heuveline (Universität Heidelberg)


     

    Der Vortrag von Prof. Dr. Vincent Heuveline verfolgte die Leitfrage der Ringvorlesung „Wer regiert das Internet?“ aus einer technisch-infrastrukturellen Perspektive. Herr Heuveline zeigte „durch die Brille der Technik“ auf, wer die relevanten Mitregenten im Netz sind, welche Risiken die technischen Arrangements mit sich bringen und an welchen Stellen sich das System manipulationsanfällig zeigt.

    Heuveline begann seinen Vortrag mit einigen Ausführungen zur Arbeit des Universitätsrechenzentrums (URZ) der Universität Heidelberg, dessen Geschäftsführender Direktor er ist. Das URZ ist der zentrale IT-Dienstleister für 31.500 Studierende und 13.500 MitarbeiterInnen. Täglich werden 2,4 Millionen E-Mails vom URZ verarbeitet, wovon horrende 70 Prozent als Spam identifiziert werden. Darüber hinaus unterstützt das URZ Forschende der Universität durch seine Rechenkapazitäten und betreibt eigene Projekte in den Themenbereichen Energieeffizienz, Big Data und Cloud Computing.

    Im Hauptteil seiner Präsentation erläuterte Heuveline zunächst die Funktionsweise des Internets, das er definiert als globales System aus miteinander verbundenen Computernetzwerken. Die Offenheit und Flexibilität des Webs sieht Heuveline als innovationstreibende Charakteristika an, die wirtschaftliche und demokratische Zugewinne erzeugen können. Das Internet orchestriert den Austausch bzw. die Kommunikation zwischen Datennetzwerken über die gemeinsame Sprache des Internet Protocol (IP). Die IP-basierte Kommunikation wird durch das Domain Name System (DNS), dem „Telefonbuch des Internets“, in die dem Internetnutzer bekannten Webadressen übersetzt. Obwohl die DNS-Funktionen von weltweit verteilten Servern dezentral ausgeführt werden, ist diese Stelle des Systems anfällig für Einflussnahmen, denn durch Eingriffe am DNS können die Informationsflüsse im Netz manipuliert werden. Darüber hinaus etablierten sich die Suchmaschinen als Mitregenten im Web, indem sie dem Nutzer im unübersichtlichen Cyberspace eine Orientierung geben. Aufgrund welcher metrischen Kriterien die Relevanz von Websites und damit deren Sichtbarkeit für den Nutzer bestimmt wird, ist allerdings das Betriebsgeheimnis der kommerziell orientierten Suchmaschinenanbieter. Auch der Betrieb der privat genutzten E-Mail- und Cloud-Dienste ist intransparent und manipulationsanfällig, denn üblicherweise gewähren deren Nutzungsbedingungen den Anbietern Zugriff auf die persönliche Kommunikation und die persönlichen Daten der Nutzer. Die von einigen Anbietern öffentlich beworbene E-Mail-Verschlüsselung lässt dies ebenfalls zu, da es sich dabei um keine Ende-zu-Ende-Verschlüsselung handelt, in deren Fall die Daten erst beim Empfänger entschlüsselt werden würden. Während diese Befunde nahelegen, dass es keine absolute Datensicherheit im Netz geben kann, gab Heuveline den Zuhörern dennoch die Handlungsempfehlung, die Manipulationsmöglichkeiten durch das aufmerksame individuelle Risikomanagement zu minimieren. Dies beginnt bei den online verwendeten Konto-Passwörtern, die auf jeder Website unterschiedlich sein und idealerweise Groß- und Kleinschreibung sowie Sonderzeichen enthalten sollten.

    Wer steuert die komplexe Internetinfrastruktur? Wo genau liegen unsere virtuellen Daten? Wer kann auf unsere Daten zugreifen? Herr Heuveline verdeutlichte in seinem Vortrag eindrucksvoll die Schwachstellen und Risiken, die die vollständig vernetzte Welt mit sich bringt. Der Vortrag lieferte zudem wertvolle Erkenntnisse über die relevanten Mitregenten im Netz und deren Interessen. Dass sich eine demokratische Gesellschaft der (Markt-)Macht der Mitregenten nicht widerspruchslos hingeben sollte, zeigten auch die lösungsorientierten Nachfragen des Publikums. Ob die aufgezeigten Risiken durch eine stärkere politische Regulierung des Cyberspace minimiert werden könnten, blieb aber letztendlich offen. Die Ringvorlesung wird daher auch in den kommenden Wochen von der normativen Frage begleitet werden: „Wer sollte das Internet regieren?“

    Hier können Sie den Vortrag von Prof. Dr. Vincent Heuveline als Audio- (MP3) und Video-Mitschnitt (MP4 / OGV) herunterladen.

     
  • Mehr Demokratie durch das Internet? Digitale Medien und ihre Implikationen für die Qualität von Demokratie | Prof. Dr. Marianne Kneuer (Universität Hildesheim)


     

    Prof. Dr. Marianne Kneuer von der Universität Hildesheim widmete sich in ihrem Vortrag den Effekten der internetvermittelten Kommunikation auf die Qualität von Demokratie. Zunächst erläuterte sie den konjunkturellen Verlauf der wissenschaftlichen und öffentlichen Diskurse anhand der Pole Netzoptimismus und Netzpessimismus sowie der erstrebenswerten Mittelposition einer netzrealistischen Betrachtungsweise. Die Diskursstränge orientierten sich jeweils an den neuesten technologischen Entwicklungen, wie beispielsweise Web 2.0-Anwendungen in den 2000er-Jahren. Aus netzoptimistischer Sicht wird das Internet häufig als Heilsversprechen angesehen, die ermüdeten Politikprozesse in repräsentativen Demokratien revitalisieren zu können. Diese Annahme überprüfte Frau Kneuer anhand der drei demokratietheoretischen Prüfkategorien Transparenz, Diskurs und Deliberation sowie Partizipation. Ihre empirische Analyse basierte auf aktuellen Daten zu politischer Online-Beteiligung in Deutschland.

    Zunächst erläuterte Frau Kneuer die Vorbedingungen für mögliche demokratische Qualitätsverbesserungen durch das Internet, namentlich Infrastruktur, Zugang, Nutzungskompetenz und tatsächliche politische Nutzung durch die Bürger. Es besteht weiterhin eine digitale Spaltung der Gesellschaft, die sich entlang von sozioökonomischen, demographischen und bildungsbezogenen Charakteristika manifestiert. Die Untersuchung von Formaten der Online-Beteiligung stellt eine konzeptionelle Herausforderung für die Politikwissenschaft dar, da bewährte Kategorien wie „Partizipation“ neu definiert werden müssen. Es stellt sich beispielsweise die Frage, ob das Klicken eines „Gefällt mir“-Buttons bereits als politisch-partizipative Aktivität gewertet werden sollte.

    Prof. Kneuers empirische Untersuchung setzte am wohl wichtigsten Punkt an, der Nachfrage nach politischen Internetangeboten durch die Bürger. In der ersten Prüfkategorie Transparenz bzw. Information zeigt sich, dass weniger als ein Drittel der deutschen Bürger regelmäßig das Internet nutzt, um sich über Politik zu informieren, wobei Jüngere dies überdurchschnittlich häufig tun. Die zweite Dimension Diskurs und Deliberation ist ebenso unterentwickelt. Nur fünf Prozent der Bundesbürger führten politische Gespräche im Internet. Trotz der Netzwerkeffekte im Web scheint sich keine aktive politische Deliberationskultur herauszubilden. In der dritten Kategorie Partizipation gibt es eine Diskrepanz zwischen größeren Nutzerzahlen bei niedrigschwelligen Angeboten wie Online-Petitionen und einer geringen Nachfrage bei anspruchsvollen Nutzungsformen wie Bürgerhaushalten. Diese Befunde zeichnen ein ernüchterndes Bild der politischen Internetnutzung durch die deutschen Bürger. Die partizipatorischen Zugewinne durch das Web treten bestenfalls neben die klassischen Beteiligungsformen offline. Der Nutzungshabitus jüngerer Internetnutzer zielt dabei vor allem auf symbolische Inputs ab, z.B. durch Online-Petitionen, weniger auf die Beeinflussung politischer Prozesse. Vor allem die bereits Engagierten nutzen das Internet für politische Zwecke. Das Internet könnte bereits bestehende Kluften und demokratische Defizite daher sogar verstärken. Im Ausblick plädierte Frau Kneuer für Formate, die on- und offline-Instrumente im Rahmen klar definierter Prozeduren und Ziele verknüpfen. Dies sollte unter Vermeidung dysfunktionaler Nebeneffekte ergänzend zu den Institutionen und Regeln repräsentativer Demokratie erfolgen. Besonders die lokale Ebene bietet ein Laboratorium für derartige Arrangements.

    Die anschließende Diskussion verdeutlichte aber auch, dass der internetvermittelten „Politik von unten“ in Zukunft eine größere Rolle zukommen könnte. Dies ist bereits in anderen westlichen Ländern und auch außerhalb der demokratischen Welt zu beobachten. So wurde das Web im Arabischen Frühling von politischen Graswurzelbewegungen zur Mobilisierung und Organisation von Protesten genutzt. Es erscheint aus einer netzrealistischen Perspektive plausibel, dass neue Formate der Online-Kommunikation in Demokratien mit dem Heranwachsen jüngerer Bürger an politischer Relevanz gewinnen könnten. Zumindest aber wird sich durch diese Kohorteneffekte das politische Partizipationsverhalten weiter transformieren.

    Hier können Sie den Vortrag von Prof. Dr. Marianne Kneuer als Audio- (MP3) und Video-Mitschnitt (MP4 / OGV) herunterladen.

     
  • Strafrechtliche Aspekte der Massenüberwachung im Internet | PD Dr. Kai Cornelius, LL.M. (Universität Heidelberg)


     

    Mit dem Vortrag von PD Dr. Kai Cornelius wurde die Ringvorlesung um eine neue, juristische Perspektive ergänzt. In seinem Vortrag ging Kai Cornelius der Frage nach, wie staatliche Überwachungsmaßnahmen strafrechtlich zu bewerten sind. Um sich dem Problemfeld anzunähern, wurden zuerst die rechtlichen Grundlagen erörtert. Anschließend wurden verschiedene Überwachungsszenarien analysiert. Zu den Szenarien muss angemerkt werden, dass diese zwar auf Grundlage der Snowden-Enthüllungen erstellt wurden, da aber nicht alle Fakten bekannt sind, wurden sie an einigen Stellen konkretisiert bzw. angepasst und stellen daher keine realen Fälle dar, sondern dienen nur der Veranschaulichung.

    Zunächst erläuterte Kai Cornelius die Grundlagen des Fernmeldegeheimnisses. Besonders im Fokus standen dabei Artikel 10 des Grundgesetzes sowie § 88 des Telekommunikationsgesetzes. Hierbei wurde auch deutlich, dass das Fernmeldegeheimnis nur eingeschränkt werden darf, sofern eine konkrete Gefahr für überragend wichtige Rechtsgüter besteht.

    Ausgehend von den rechtlichen Grundlagen analysierte Cornelius drei Szenarien auf ihre strafrechtliche Relevanz. Das erste Szenario befasste sich mit der sogenannten Treasuremap. Hierbei handelt es sich um eine Karte des Internets, die von Geheimdiensten zur Vorbereitung von Cyber-Angriffen und Spionageaktionen genutzt werden kann. Um eine solche Karte zu erstellen, müssen verschiedene Analyseschritte unternommen werden (bspw. OS-Fingerprinting). Auf diese Weise erfahren die Geheimdienste mehr über die Zielsysteme (welche Ports offen, welche Anwendungen aktiv sind) sowie deren Schwachstellen. Aus strafrechtlicher Perspektive stellen derartige Maßnahmen der Informationsbeschaffungen aber keine strafbare Handlung dar und können daher nicht verfolgt werden.

    Im zweiten Szenario befasste sich Kai Cornelius mit einem Cyber-Angriff auf ein deutsches Unternehmen. Das Szenario basiert auf dem Angriff gegen Stellar, einen Anbieter von satellitengestütztem Internet. Durch die Snowden-Enthüllungen wurde bekannt, dass Rechner der Kölner Firma mit Schadsoftware infiziert und Informationen entwendet worden waren. Zunächst muss in einem solchen Fall geklärt werden, ob der Angreifer sich unberechtigt Zugriff auf die Daten verschafft hat. Davon kann in diesem Szenario ausgegangen werden, so waren die Daten nicht für den Angreifer bestimmt und sie waren durch eine Zugangssicherung, die der Angreifer überwinden musste, geschützt. Es ist folglich von einer Straftat auszugehen. Die Strafverfolgung gestaltet sich jedoch sehr schwierig. Die Handlung ist möglicherweise im angreifenden Staat (bspw. den USA) nicht strafbar. Eine Aussicht auf Strafverfolgung bestünde eventuell, wenn der Angriff aus dem Vereinigten Königreich erfolgt ist.

    Das dritte Szenario basierte auf den Enthüllungen um das Programm Eikonal. Dokumente legen den Schluss nahe, dass der Bundesnachrichtendienst (BND) zwischen 2004 und 2008 Daten, die am Frankfurter Internetkonten DE-CIX abgegriffen wurden, an die NSA weitergegeben hat. Sollte der BND hierbei die Daten deutscher Bürger erhoben und weitergegeben haben, hat er seine Kompetenzen übertreten. Die Wahrscheinlichkeit, dass das geschehen ist, ist groß, da die technischen Maßnahmen (Filter über Top Level Domains) kaum geeignet sind die Grundrechtsträger effektiv zu schützen. Weiterhin erläuterte Kai Cornelius die Besonderheiten bei internationaler und rein ausländischer Kommunikation. Dabei wurde deutlich, dass die rechtlichen Bedingungen durch den BND kaum eingehalten werden können und dringend reformbedürftig sind.

    In seinem Fazit bekräftigte Kai Cornelius dann auch die Notwendigkeit einer gesellschaftlichen Debatte über die Überwachungspraxis sowie die gesetzlichen Regelungen. Denn bereits die Vermutung überwacht zu werden, könne zu Verhaltensveränderung (Selbstzensur) führen und das gelte es zu verhindern.

    Hier können Sie den Vortrag von PD Dr. Kai Cornelius als Audio- (MP3) und Video-Mitschnitt (MP4 / OGV) herunterladen.

     
  • Podiumsdiskussion Datenschutz im Internetzeitalter


     

    Die Podiumsdiskussion widmete sich einem Thema, das bereits mehrfach im Verlauf des Semesters angesprochen wurde - dem Datenschutz. Auf dem Podium diskutierten Peter Schaar, Alexander Sander, Niko Härting und Andreas Geissler. Moderiert wurde die Debatte von Dr. Wolf J. Schünemann.

    Ausgangspunkt der Diskussion waren die Enthüllungen von Edward Snowden und die umfassenden Überwachungsmaßnahmen der Geheimdienste. Ein Recht auf Datenschutz sah Peter Schaar dabei bereits durch die Universalität der Menschenrechte gegeben, ihre Umsetzung und Einhaltung wurden von ihm, wie auch von Alexander Sander als überaus mangelhaft bewertet. So sei die staatliche Sammelwut sowohl amerikanischer als auch deutscher Behörden durch keine Erfolge in der Terrorbekämpfung ausreichend gerechtfertigt, mehr noch, die Überwachung diene nicht der aktiven Terrorabwehr, sondern dem Anhäufen von „Data Intelligence“, die bereits die Verhinderung eines hypothetischen Angriffs zum Ziel hat und somit alle Bürger unter einen Generalverdacht stelle. Diese anlasslose Speicherung, so Schaar, sei „der Sündenfall“ gewesen. Während jedoch die deutschen Geheimdienste bereits durch eine Stärkung der parlamentarischen Kontrolle an die Kette gelegt werden könnten, war es den Diskutanten klar, nachdem bereits der deutsche Vorstoß eines no-spy-Abkommens mit den USA „grandios gescheitert“ sei, dass nur eine einheitliche und gemeinsame Positionierung der Europäischen Union eine Chance hat, die US-amerikanischen Übergriffe einzuhegen.

    Niko Härting merkte an, dass auch der Bundesnachrichtendienst (BND) seine Befugnisse sehr weit definiert. Er führte als Beispiel an, dass der BND die Meinung vertritt, Kommunikation zweier Ausländer sei nicht durch Artikel 10 des Grundgesetzes geschützt, weil dieser nur für Deutsche gelte. Diese Auslegung wird aber von vielen Juristen kritisch gesehen. Aus seiner Sicht sei die Kontrolle der Geheimdienste ungenügend. Für einen geheimdienstlichen Ringtausches, um flächendeckend auch die eigentlich geschützte eigene Bevölkerung zu überwachen, sah Härting aber keine Beweise. Er argumentierte, dass zu einer effektiven Geheimdiensttätigkeit die Kooperation mit unverzichtbar sei. Verdachtsmomente müssten an befreundete Partnerdienste weitergegeben werden.

    Andreas Geissler ging näher auf die Rolle der Unternehmen ein. Auf die Frage, ob Unternehmen von Geheimdiensten zu Erfüllungsgehilfen gemacht würden, antwortete er, dass Unternehmen unfreiwillig in diese Rolle gedrängt würden. Kein Unternehmen könne es sich leisten mit schlechten Schlagzeilen das Vertrauen der Kunden und damit die Geschäftsgrundlage zu verlieren. Die Gewährleistung der Datenschutzes sei daher für Unternehmen sehr wichtig.

    Der zweite Teil der Diskussion befasste sich mit der Regulierung des Datenschutzes und der Europäischen Datenschutz-Grundverordnung. Eine europäische einheitliche Regelung wurde von Alexander Sander und Peter Schaar positiv bewertet, diese biete die Möglichkeit die Unternehmen mit einzubinden, diesen klare Vorgaben im Datenschutz zu diktieren und somit aus der US-amerikanischen Überwachungskomplizenschaft herauszubrechen. Während Alexander Sander dabei zukünftig vor allem die Stärkung von open source Technologien empfahl, da diese unabhängig, von jedem überprüfbar und dadurch vertrauenswürdig seien, sah Peter Schaar auch bei den etablierten Unternehmen nicht die Gefahr, dass derartige scharfe EU-Kontrollvorgaben Wettbewerbsnachteile für Unternehmen nach sich ziehen würden. Im Gegenteil er verstand sie gar als Chance, die als Qualitäts- und Gütesiegel für den globalen Markt von Nutzen sein könnte. Während jedoch Peter Schaar und Alexander Sander einen derartigen Lackmustest für Unternehmen begrüßen würden, bei denen die Unternehmen im unvereinbaren Rechtskonflikt zwischen europäischem Spionageverbot und dem amerikanischen Zwang zur Herausgabe von Daten stehen würden, sahen Niko Härting und Andreas Geissler eine derartige in Geißelhaftnahme von Unternehmen als hochgradig problematisch und unangebracht an, die Unternehmen in eine nicht zumutbare Situation brächten.

    In der Beziehung über die Bereitstellung beziehungsweise der Überantwortung von Daten von Bürgern an Unternehmen gab es unter den Diskutanten divergierende Ansichten. Zunächst räumte Alexander Sander mit dem Vorurteil auf, dass die Bürger eine freiwillige Selbstaufgabe betrieben und ein Mangel an kritischem Bewusstsein über ihre Daten besitzen würden. So stellte er heraus, dass der durchschnittliche Bundesbürger 76 Arbeitstage aufbringen müsste, wenn er alle AGBs tatsächlich lesen möchte, die ihm innerhalb eines Jahres begegnen. Andreas Geissler vertrat in dieser Hinsicht eine liberalere Position, indem er auf die Produktivität und den ungeahnten Nutzen von Daten verwies. So könne ein reicherer Bestand unterschiedlicher Daten neue Antworten auch auf bisher ungedachte Fragen liefern, die zum Vorteil der Bürger wären, etwa in der Früherkennung von Krankheiten. Wichtig sei nur, dass die Freigabe von Daten stets freiwillig erfolge.

    Niko Härting wandte ein, dass der häufig geäußerte Satz "Meine Daten gehören mir" falsch sei. Es gebe keinen Besitz an Daten, sondern nur ein Nutzungsinteresse an Daten. In der öffentlichen Debatte werde häufig der Fehler begangen Daten als schützenswert zu bezeichnen obwohl es eigentlich um den Schutz der Privatsphäre gehe. Die Frage, ob bspw. Versicherungen Gesundheitsdaten ihrer Kunden erheben dürfen, sei eigentlich die Frage, ob es gesellschaftlich erwünscht ist, dass Versicherungen Tarife auf Basis dieser Daten anbieten. Hierbei handele es sich daher nicht um eine Frage des Datenschutzes, sondern um ein gesellschaftliches Problem, das einer politischen Lösung bedürfe. Peter Schaar unterstützte ihn in dieser Hinsicht und konkretisierte, indem er von einer App berichtete, die derzeit – aus Testzwecken – seine Schritte zähle. Er selbst hätte dabei einen positiven Nutzen an sich festgestellt, die Kenntnis über diese Zahl motiviere ihn etwas mehr am Tag zu gehen und das Auto stehen zu lassen. Sollten diese oder ähnliche Daten jedoch Unternehmen etwa einer Versicherung übergeben werden, die Anhand der überprüfbaren sportlichen Betätigung ihre Tarife individuell errechne, so sei das Maß klar überschritten und der Gesetzgeber müsse einschreiten. Alexander Sander sah dies ähnlich und brach es auf die einfache und pragmatische Formel der Datensparsamkeit herunter, dass eine App die Schritte zählt, nicht auch den Namen, das Alter oder sonstige Dinge des Nutzers wissen müsse oder dürfe.

    Hier können Sie die Podiumsdiskussion als Audio- (MP3) und Video-Mitschnitt (MP4 / OGV) herunterladen.

     
  • From Anonymity to Identification: Online Communication in a Time of Surveillance | Prof. Michael Froomkin (University of Miami)


     

    On December 11th 2014, Professor Froomkin (Miami School of Law) held a talk at the University of Heidelberg for the Ringvorlesung (‘cycle of conferences’) “Wer regiert das Internet?” (‘Who governs the Internet?’). The talk dealt with services provided online by commercial actors, as well as methods practiced by intelligence agencies. His presentation, titled “From anonymity to identification: online communication in a time of surveillance”, offered a rather dark vision of major developments in many countries over the last several years in terms of social, technological and legal evolution, which led to a generalized use of identification and surveillance techniques.

    As a starting point, Professor Froomkin provided what, due to its particular strictness, he termed a controversial definition of privacy. He continued by describing developments in several countries, both several years old and more recent, which allowed him to paint a picture according to which it is nowadays very difficult –if not impossible– to completely escape surveillance when using communication means. The overall picture offered in this presentation on ‘communication in a time of surveillance’ thus, in Professor Froomkin’s own words, tends to be a generally gloomy one. The assessment of the current situation, concerning privacy and anonymity in our societies, prompted Professor Froomkin to declare that the recent situation is much worse than ever before. One important reason for this is the fact that for the last several years, the US government and its allies have highly prioritized maintaining an eavesdrop capacity, despite the rise of the Internet and digital tools. This has resulted in changes to weaken privacy and anonymity in the use of communication means. By highlighting this general decline towards more identification and surveillance in his presentation Professor Froomkim articulated a set of several core dimensions explaining this shift: (i) ideology – as a general rule, anonymity is perceived as a bad thing; (ii) pursuit of profit – the motives of commercial actors have gravely impacted anonymity and privacy; (iii) technology development - the development of technologies allowing online, but also offline tracking, which resulted in a convergence of the two types of surveillance (one can even observe a shift in terms of tracking, where real world surveillance is prevailing over online surveillance); (iv) the law -both at the national (US) and supranational level, which has enabled surveillance online and offline.

    Interestingly, Professor Froomkin pointed out that Edward Snowden’s whistle-blowing could have two side effects. On the one hand, those revelations will prompt a number of governments to legalize what was previously illegal (citing the Irish example). On the other, privacy could be weakened by increasing co-operation between intelligence agencies and law-enforcement authorities. The NSA has been collecting data for decades; this fact, however, was unknown and the NSA was even reluctant to hand over that data to civilian authorities under the cloak of State secrets. If this trend is reversed and information sharing between intelligence agencies and law-enforcement authorities becomes a more common occurrence, it could have negative repercussions on privacy.

    Concluding this portrayal of our ‘globally gloomy grey’ surveillance time, Professor Froomkin said that the major question is, to what extent the voters and consumers would care about their privacy and anonymity –according to him, so far they have shown little concern. His view is that this is mainly because people ignore that they are under such surveillance or are not aware of its extensiveness and intensity. In his concluding remarks, Professor Froomkin observed that if the problem cannot be solved at the human level, it remains doubtful that it could be done at the technological level.

    Hier können Sie den Vortrag von Prof. Froomkin als Audio- (MP3) und Video-Mitschnitt (MP4 / OGV) herunterladen.

     
  • Is there sovereignty in cyberspace? Internet governance and International relations | Prof. Milton Mueller (Syracuse University)


     

    As an introduction to his talk, Prof. Milton Mueller stated that he was fascinated by the convergence between foreign policy on cyberspace and national security in the last 5 years. He added that while the two had been linked prior to the Edward Snowden revelations, these revelations made this connection more explicit. His presentation touched upon the current topics dealing with the “sovereigntised” cyberspace, which manifests itself through varied forms, including the increasing demands of “data sovereignty” or “sovereign cloud” in the aftermath of Edward Snowden’s revelations. Concluding his introduction, he directly answered the question his presentaion posed. In Prof. Müller’s opinion, sovereignty in cyberspace can be achieved; but the more careful we are in defining what it could mean and what it requires, the more we will see that it is incompatible with the Internet, how it works today and what it has to offer.

    During the course of his presentation, Prof. Mueller addressed different concepts of sovereignty that can be used with regard to cyberspace. He went on to refer to “riddle territoriality” and explained how it is difficult to conceptualise the limited scope of territoriality in cyberspace, while observing that international law confines territorial space to ethnical entities. Therefore, we should avoid any overly enthusiastic interpretation of the scope of territoriality in general. He insisted on the importance of territory by explaining that there is a mismatch between ‘internet territory’ and ‘political territory’, which is at the root of the problem of sovereignty in cyberspace. In his view, the concept of popular sovereignty has to be understood as an answer to the question of how we align people with popular sovereignty in cyberspace.

    Prof. Mueller emphasised the basic distinction between sovereignty ‘in’ cyberspace and sovereignty ‘over’ cyberspace. With regard to the former, sovereignty is applied to cyberspace as an independent space from the physical world, while with regard to the latter; it refers to ‘physical sovereignty’ on cyberspace. He noted a clear confusion in the use of both concepts of sovereignty, when, for example, the US army or the Obama administration are talking about “defending our space” in the case of cyberspace. In his point of view, they clearly do not know what they are dealing with, since the Internet does not constitute a typical form of territorial space. This does not mean that cyberspace has no boundaries, but rather that it has a different nature than the territorial one. Thus, one has to question the legitimacy that one can attach to these sui generis boundaries of cyberspace. In this regard, he reminded us that the Internet has always meant a network of networks. Moreover, he explained how the Internet is made up of ‘Autonomous Systems’—which means that there is no need for a central administration in order to create a network in a country and to connect to other networks). The ‘Autonomous Systems’ have interactions with physical borders, but they do not completely overlap with them. Finally, he pointed out that the discourse on imposing sovereignty on the Internet is literally a discourse about reversing the non-centralised distribution of the Internet and how it works.

    He mentioned some important historical changes within the global institutional framework of Internet governance and pointed out the ongoing reforms. Most significantly, in the wake of Edward Snowden’s revelations, the US has promised to end its role and to turn over “stewardship of IANA” to the “multistakeholder community“.

    In his concluding observation, Prof. Mueller dealt with the transformation of the Internet as envisaged by most of the states, which are willing to constantly expand their sovereignty over cyberspace. If nothing is done to preserve the specific characteristics of the global transnational institutional framework governing the Internet, this move will have an impact on its very nature and result in a more centralised space. Regarding the question of whether there is sovereignty over cyberspace, Prof. Mueller answered that there is none, but that there is a new space and an ongoing struggle. With respect to the further question of whether there should be sovereignty over cyberspace, he stated that there should be none, as this could only be achieved by destroying the Internet as we know it and that the gains would not be worth the costs.

    Hier können Sie den Vortrag von Prof. Milton Mueller als Audio- (MP3) und Video-Mitschnitt (MP4 / OGV) herunterladen.

     
  • Wer besteuert das Internet? Die Steuersparmodelle von Amazon, Google & Co. als juristische Reformimpulse | Prof. Dr. Ekkehart Reimer (Universität Heidelberg)


     

    „Warum zahlen wir unentrinnbar unsere Steuern, während Unternehmen, je größer, globalisierter und virtualisierter sie sind, sich zumindest eines Teils ihrer Steuerbelastung entziehen können?“ – Mit dieser Leitfrage, diesem Problem begann der Heidelberger Rechtswissenschaftler Prof. Dr. Ekkehart Reimer seinen Vortrag über „Die Steuersparmodelle von Amazon, Google & Co. als juristische Reformimpulse“. „Uns besteuert der Staat, doch wer besteuert das Internet?“, so lautete eine weitere Formulierung des Ausgangsproblems, wobei die zweite Teilfrage: „Wer besteuert das Internet?“, die Leitfrage der Ringvorlesung leicht variierend, als eigentlicher Titel der Veranstaltung firmierte. Nach einer knappen Einführung widmete sich Herr Professor Reimer Frage in drei großen Schritten. Zunächst beschrieb er die Grundstrukturen des Steuerrechts in der elektronischen Welt. Dies erfolgte differenziert nach den aktuellen Herausforderungen und Anknüpfungspunkten für das Steuerrecht. Zu unterscheiden sei zwischen drei grundlegenden Erscheinungsformen: erstens einer Virtualisierung ohne Globalisierung, die heute im Grunde keine Herausforderung für eine effektive Besteuerung mehr darstelle. Zweitens bereite eine Globalisierung ohne Virtualisierung dem nationalen Steuerrecht schon seit längerer Zeit Probleme. Das Recht befinde sich geradezu in einer „Globalisierungsfalle“. Als dritte Form nannte Reimer die Kombination aus Globalisierung und Virtualisierung. Der durch dieses Eigenschaftsbündel gekennzeichnete Typ moderner Unternehmen, der für den Vortrag zentral war, bedeutet dabei – so stellte sich spätestens im Laufe der Diskussion heraus – , nicht den kategorialen Unterschied, der zwischen den ersten beiden Merkmalen festzustellen ist (Globalisierung vs. territoriale Bindung), sondern einen graduellen. Die digitale Revolution habe diese graduelle Transformation aber derart beschleunigt ausgelöst und in eine solche Dimension getrieben, dass das Steuerrecht in relativ kurzer Zeit dadurch vor bedeutende Herausforderungen gestellt worden sei.

    Im gewissermaßen empirischen Teil des Vortrags schilderte Professor Reimer detailliert eine leicht abstrahierte Variante des Steuervermeidungsmodells des Google-Konzerns, der über grenzüberschreitend zu entrichtende Lizenzgebühren die Unternehmensgewinne bei inländischen Enkelgesellschaften und damit die Bemessungsgrundlage für die Unternehmensbesteuerung derart reduziert, dass kaum noch Steuern zu zahlen sind. Mit Lizenzkäufen werden Gelder über mehrere Stationen (z.B. Großbritannien, Niederlande, Luxemburg) in eine Steueroase (z.B. die Bermudas) verschoben, wo sie entweder verbleiben oder von wo sie in günstigen Momenten zum Sitz der Muttergesellschaft geholt werden (so genanntes deferral).

    Ekkehart Reimer bewertete diese und ähnliche Steuervermeidungsmodelle zwar durchaus kritisch, die Bewertungen erfolgten aber in aller Regel nuanciert. So legte Professor Reimer von Beginn an großen Wert auf die Klarstellung, dass die Staaten mit der Reduktion ihrer Gewinnbesteuerung nur einen Teil der Wertschöpfung partiell von der Steuerlast befreien. Daneben gebe es allerdings noch die Konsumbesteuerung sowie die Einkommensbesteuerung der beschäftigten Mitarbeiter, die normal besteuert würden. Außerdem sei auch gegen den grenzüberschreitenden Handel mit Zertifikaten zwischen Tochtergesellschaften, der dem Mutterunternehmen eine gewisse Zentralisierung wichtiger immaterieller Ressourcen ermögliche, für sich betrachtet nichts einzuwenden.

    In einem weiteren Abschnitt fragte Herr Reimer danach, wer das Internet besteuern solle, es überhaupt wirksam könne, und richtete damit den Blick auf eine mögliche Problemlösung. Hier betonte der Referent die Bedeutung internationaler Institutionen (UN, G20, OECD, EU): Während von der Europäischen Union aufgrund der vielen Vetomöglichkeiten keine sinnvolle und dynamisch reaktionsfähige Lösung zu erwarten sei, bewertete er den im Auftrag der G20 durch die OECD entwickelten Aktionsplan über das so genannte Base Erosion and Profit Shifting (kurz: BEPS) als bedeutsam und positiv. Auch in seinem Fazit unterstrich Professor Reimer den Wunsch nach einer Stärkung internationaler Institutionen und insbesondere seine Hoffnung auf die BEPS-Initiative. Dennoch antwortete er abschließend auf die titelgebende Frage doch wieder im Sinne staatlicher Souveränität: „Das Internet wird von den Staaten besteuert“.

    Der gleich zu Beginn des Vortrags vorgebrachte Disclaimer, wonach vom Referat selbst nicht allzu viel zu erwarten sei, dafür umso mehr von der Diskussion, erwies sich als höfliches Understatement des Sprechers. Denn der kenntnisreiche, klar strukturierte, überzeugend argumentierende und präzis formulierte Vortrag erhielt zu Recht eine knappe Stunde lang die ungeteilte Aufmerksamkeit des Publikums. Allerdings schlossen sich daran in der Tat auch drei Fragerunden mit anregenden Fragen und Kommentaren von hoher Qualität an, etwa über die Möglichkeiten eines effektiven Missbrauchsschutzes, eine Angemessenheitsprüfung für Lizenzgebühren oder andere Ansatzmöglichkeiten (Technik, Nutzer) für die Besteuerung, der von Internetkonzernen kanalisierten Wirtschaftsaktivität.

    Hier können Sie den Vortrag von Prof. Dr. Reimer als Audio- (MP3) und Video-Mitschnitt (MP4 / OGV) herunterladen.

     
  • The Internet, an intrusive surveillance system | William Binney (ehemaliger technischer Direktor der NSA)


     

    Mit dem Vortrag von William Binney wurde die Ringvorlesung um eine neue, praktische Perspektive ergänzt. Der ehemalige technische Direktor der NSA gab einen Einblick in die tägliche Internetüberwachung aus Sicht der Geheimdienste. Allerdings ist anzumerken, dass William Binney die NSA bereits 2001 verlassen hat und fortan als Aktivist und früher Whistleblower gegen die nach den Terrorangriffen vom 11. September erheblich ausgeweiteten Überwachungspraktiken vorgegangen ist. In seiner Präsentation stützte er sich nicht allein auf eigene Erfahrungen und Enthüllungen, sondern auch auf die von Edward Snowden veröffentlichten Dokumente und versuchte durch eine thematische Kontextualisierung die Tragweite der Enthüllungen für ein öffentliches Publikum nachvollziehbar zu machen.

    William Binney begann seinen Vortrag mit der Aussage, dass die NSA versucht möglichst viele elektronische Daten in Echtzeit zu erheben und diese dauerhaft zu speichern. Dies betrifft nicht nur Metadaten, sondern auch die Inhalte der Kommunikationsvorgänge. Um dieses Ziel zu erreichen nutzt die NSA drei verschiedene Wege. Der erste und für die NSA einfachste Weg ist die direkte Kooperation mit Internetunternehmen (bspw. ISPs). Die Unternehmen gewähren dabei der NSA gegen Bezahlung Zugang zu ihren Daten bzw. Leitungen. Eine zweite Möglichkeit besteht in der Kooperation mit anderen Staaten, die im Rahmen der Geheimdienstkooperation Daten weiterleiten. Besonders wichtig sind für die NSA hier die Partnerstaaten der sogenannten Five Eyes (Großbritannien, Kanada, Australien und Neuseeland). Die dritte Möglichkeit der Datenbeschaffung besteht in einem direkten, unilateralen Abgreifen der Daten ohne Wissen der Betroffenen. Als Beispiel für dieses Vorgehen führte Binney die Möglichkeit an, die Daten aus Unterseekabeln mit Hilfe von U-Booten abzugreifen. Auch durch die gezielte Manipulation von zentralen Internetinfrastrukturen bspw. Switches und Servern, die teilweise sogar auf dem Postweg zum Kunden entsprechend modifiziert werden, versucht die NSA große Teile des Internets zu kontrollieren. Ziel all dieser Maßnahmen ist ein möglichst umfassendes Bild der globalen Kommunikation zu erlangen.

    Die erhobenen Daten beziehen sich dabei auch auf US-amerikanische Staatsbürger, als Beispiel dafür führte er das Programm FAIRVIEW an. Dieses nach den Anschlägen vom 11. September 2001 gestartete Programm zielt auf die massenhafte Speicherung in- und ausländischer Kommunikationsdaten. Laut William Binney führt das zu Datenmengen, die durch die Analysten unmöglich sinnvoll verarbeitet werden können. Eine Massenüberwachung sei folglich nicht nur illegal, sondern auch dysfunktional. Eine Erhebung der Metadaten sei für die Arbeit der NSA ausreichend. Inhaltsdaten sollen nur in Verdachtsfällen gespeichert und ausgewertet werden. Ein aus den großen Datenmengen resultierendes Problem stellt der potenzielle Missbrauch der gesammelten Daten dar. Zur Verdeutlichung dieses Problems erläuterte Binney die Praxis der "parallel construction". Hierbei wird im Zuge von Ermittlungsverfahren mitunter auf die gespeicherten Daten zugegriffen, da diese jedoch vor Gericht nicht verwendet werden dürfen, müssen für die Verhandlungen weitere "legale" Beweise gefunden werden.

    Neben diesen Praktiken warf Binney der NSA vor, die Gefahrensituation gezielt überhöht darzustellen, um die institutionellen Eigeninteressen (den Ausbau der Kapazitäten und Kompetenzen) verfolgen zu können. Da auch eine effektive richterliche Kontrolle der NSA fehle, könne sie derzeit einen "empire building process" betreiben, der weitreichende Implikationen mit sich bringen könne. Sofern man der NSA keinen Einhalt gebiete, sei ein substanzieller Schaden für das demokratischen System zu befürchten.

    Hier können Sie den Vortrag von William Binney als Audio- (MP3) und Video-Mitschnitt (MP4 / OGV) herunterladen.

     
  • Der Cyber-Krieg, der (so) nicht kommt | Dr. Myriam Dunn Cavelty (ETH Zürich)


     

    Dr. Myriam Dunn Cavelty von der ETH Zürich befasste sich in ihrem Vortrag mit der Frage nach dem Cyberkrieg und warum dieser so nicht kommen wird. Um dieser Frage nachzugehen, vollzog Frau Dunn Cavelty zunächst einen Blick in die Geschichte und betrachtete die Entwicklung der Bedrohungen und auf welchen Vektoren sie liegen. Danach nahm sie eine Einschätzung der Gefährdungslage vor, um letztlich noch einmal zu betonen, dass jegliche Gefährdung, sowie der Zustand und die Wahrnehmung des Cyberspaces und seiner Gefahren weder ontologischen Wahrheiten, noch beständiger Naturgesetze seien, sondern vom Menschen gemacht und von diesem auch Diskursiv verändert werden können.

    In ihrer Einteilung der Gefahrenentwicklung fasste Dunn Cavelty die Entwicklung in Dekaden zusammen, beginnend mit den 1980-er Jahren. Diese Frühphase des Internets und auch des Cyberspaces wurde dominiert von Einzeltätern, deren Bestreben meist im Bereich der Spionage oder des Diebstahls zu verorten ist. Ihre Ziele lagen meist im Angriff gegen Regierungscomputern und nur vereinzelt gegenüber Wirtschaftsunternehmen oder der Gesellschaft. Zu den bekanntesten frühen Vertretern dieser Cyberangriffe zählen Robert Tappan Morris, der Erfinder des Morris-Wurms und Kevin Mitnick, ein amerikanischer Häcker der über hundert Mal in das US-amerikanische Netzwerk des Verteidigungsministeriums und der NSA eindrang.

    Die folgenden 1990-er Jahre weiteten und verschoben die Gefahrenwahrnehmung. Die Spionage war weiterhin ein großer Teil der Aufmerksamkeit, sie wurde nun jedoch ergänzt durch den Bereich des Terrors und des (Cyber)Krieges, bei dem der Einzeltäter bereits den Rückzug antrat um professionalisierten Akteuren Platz zu machen. Ausschlaggebend für diese Entwicklung waren vor allem drei Dinge. Erstens der Ausbruch des Golfkrieges, der begleitet wurde mit einem massiven Informationskriegs (dessen Techniken hohe Schnittmengen mit einem Cyberkrieg aufweisen), zweitens gab eines ganze Reihe von Cyberangriffen gegen sicherheitspolitische Ziele (94 Rome Lab Incident; 98 Solar Sunrise; 98 Moonlight Maze) und drittens ein Bericht der US Presidential Commission of Critical Infrastructure, die über den Schutz von kritischen Infrastrukturen gegen Cyberangriffe berichtete. Alle drei Bereiche zusammen führten dazu, dass die Bedrohungswahrnehmung sich zu einem breiten sicherheitspolitischen Trend entwickelte und nunmehr auch die Gesellschaft und vor allem kritische Infrastruktureinrichtungen als mögliche Ziele von Angriffen wahrgenommen wurden.

    Die 2000-er Jahre wandelten schließlich den Cyberkrieg zur alles bedrohenden Angriffsart. Zwar lenkten die physischen Attacken von 9/11 den Blick etwas vom Cyberspace weg, wieder hin zur realen Welt, doch veränderte es die Wahrnehmung des Problems der Cybergefahren auch dahingehend, dass diese nunmehr holistisch betrachtet wurden – das heißt alle Angriffsarten, seien sie Cybercrime, -terror oder -krieg als Möglichkeiten in Betracht gezogen wurden – und als ein Gefährdungspotential für alle Teile der Gesellschaft verstanden wurden.

    Das aktuelle Jahrzehnt und der Blick drüber hinaus steht schließlich unter den Schlagwörtern Stuxnet, als erste Cyberwaffe die physische Zerstörung anrichtete und den Leaks, seien sie im Zuge Wikileaks, Chalesea Mennings und natürlich der Snowden-Affäre. 2010 und die Folgejahre sind daher vor allem unter dem Blickwinkel von staatlichen Aktivitäten im Netz und der Frage nach einem Cyber-Sicherheitsdilemmas zu sehen, bei dem jeder Staat versucht ist, möglichst viele eigene Kapazitäten aufzubauen.

    Im zweiten Teil des Vortrags nahm sie eine Einschätzung der Bedrohungsvektoren vor. Hierbei ist festzuhalten, dass sie vor allem beim Hacktivismus, dem Cybercrime und der Cyberspionage einen weiteren Zuwachs befürchtet. Diese Bereiche, die eine relativ niedrigschwellig Bedrohung darstellen, sind am einfachsten auszuführen und versprechen für die Akteure dabei den unmittelbarsten und größten Nutzen. Die Cyberspionage, wie sie Stuxnet darstellte, wird ein mittleres Bedrohungsfeld behalten, bei dem einzelne, langgeplante Vorfälle weiterhin stattfinden werden, die jedoch mittelfristig nicht die Alltagsnorm werden dürften. Der Cyberterror und der Cyberwar letztlich müssen jeweils zweigeteilt betrachtet werden. So ist Cyberterror weiterhin unwahrscheinlich als Terrorakte im Cyberspace, nimmt jedoch als Plattform der Organisation und Mobilisation für terroristische Vereinigungen zu. Der Cyberwar wird als Reinform (strategischer Cyberkrieg) ebenfalls nicht stattfinden, jedoch wird der Cyberspace und die Cyberattacken den konventionellen Krieg (operativen Cyberkrieg) ergänzen und unterstützen.

    Im letzten Teil des Vortrags stellte Dunn Cavelty die Frage nach der diskursiven Dimension und den Konsequenzen des Begriffs Cyberwar. Sie betonte dabei, dass der Cyberspace von Menschen erschaffen wurde und diese auch die Fähigkeiten besitzen, ihn ihren Wünschen entsprechend zu verändern und zu prägen. Entscheidend sei dabei, dass es nicht nur um seine tatsächliche, ontologische Gestalt gehe, sondern auch wie von und über ihn gesprochen wird. So mahnte Dunn Cavelty an, dass durch den inflationären Gebrauch des Wortes Cyberwar eine Verzerrung stattfinden würde, bei dem der Cyberspace und seine Gefahren nur noch durch eine kriegerisch-militärisch geprägte Brille betrachtet würde, dessen Konsequenz eine tatsächliche Militarisierung nach sich zögen.

    Hier können Sie den Vortrag von Dr. Myriam Dunn Cavelty als Audio- (MP3) und Video-Mitschnitt (MP4 / OGV) herunterladen.

     
  • Thesen zur Netzpolitik - Eine Bilanz | Prof. Dr. Sebastian Harnisch und Dr. Wolf J. Schünemann (Universität Heidelberg)


     

    Ringvorlesungen haben mitunter die Tendenz, Einzelvorträge aneinander zu reihen und die Veranstaltungsreihe mit dem letzten Vortrag einfach auslaufen zu lassen. Prof. Dr. Sebastian Harnisch stellte in seiner Vorrede zur Abschlussveranstaltung klar, dass für die Ringvorlesung „Wer regiert das Internet?“ im Gegensatz dazu von Beginn an der Anspruch bestanden hat, eine Bilanz zu ziehen und alle Vorträge noch einmal kritisch zu diskutieren. Um dies zu erreichen, hatten die Organisatoren der Ringvorlesung, neben Professor Harnisch auch Dr. Wolf Schünemann, dieser Abschlussdiskussion einen Film vorangestellt, der durch eine rasche Abfolge zusammengeschnittener Szenen aus allen Vorträgen einen Überblick über die Veranstaltungen des Semesters bot. Auch für den Rest der Veranstaltung wählten die beiden Sprecher ein Sonderformat. Wie im Titel angekündigt, präsentierten sie bilanzierende Thesen zur Netzpolitik. Dabei teilten sie sechs thematisch gegliederte Thesen auf zwei Blöcke à drei, die in kurzen Referaten vorgestellt und dann ausführlich diskutiert wurden.

    Den Beginn machte Sebastian Harnisch. Er präsentierte eine theoretische These, eine These zur Demokratieentwicklung, die sich – wie Harnisch selbst zugestand – eigentlich aus vier bis fünf Teilaussagen zusammensetzte, sowie schließlich eine These zu Datenschutz und Privatsphäre. Die erste, die theoretische These gibt im Grunde die bilanzierende Antwort auf die Leitfrage der Ringvorlesung. Demnach entziehe sich, so Harnisch, das Internet als politischer Raum in seiner dynamischen Entwicklungsphase tendenziell einer politischen und rechtlichen Regulierung, weil Akteursinteressen sich noch herausbilden, Koalitionen zwischen politischen Akteuren erst noch geschmiedet und abstrakt gesprochen in diesem emergenten Politikfeld Konstitution und Regulation noch stark ineinander greifen würden. In der Diskussion wurde zu dieser These lediglich angemerkt, dass die Regulierungsmöglichkeiten des Internets offensichtlich stark schwankten und autoritäre Regime wie insbesondere China durchaus in der Lage seien, das Internet effektiv zu kontrollieren. Selbst mit Blick auf demokratische Staaten wie die USA oder Großbritannien müsse man feststellen, dass durchaus Möglichkeiten beständen und offen gehalten würden, um das Netz und insbesondere die Kommunikation darin unter Kontrolle, zumindest unter Aufsicht zu halten. Die Leitfrage müsse also, so der Kommentar, ergänzt werden: „Wer regiert das Internet wo?“

    Die zweite, die Demokratisierungsthese, stellt ein Bündel von Annahmen zu Chancen und Hindernissen der Demokratieentwicklung im Internetzeitalter dar. Die grundlegende Aussage ist, dass es keine gerichtete Beziehung zwischen Internetnutzung und politischen Regimen gebe. Zum einen, so Harnisch könne durch Online-Kommunikation die Absetzung etwa eines autokratischen Regimes ebenso befördert werden, wie dessen Unterstützung durch wirksame Propaganda organisiert werden könne. Für demokratische Gesellschaften gelte ferner, dass die Bürger das Internet nicht regierten und im Sinne des digitalen Citoyen an seiner politischen Gestaltung teilhätten, sondern sie es lediglich als Marktbürger und Nutzer konstituierten. Zudem sei der Netizen nicht repräsentativ für die gesamte demokratische Bevölkerung. Er stelle vielmehr sowohl in demografischer als auch funktionaler und situativer Hinsicht ein sehr spezielles Segment der Gesamtbevölkerung dar. Was die demokratische Kultur im Internet betrifft, funktioniere das Netz – und hier lehnte sich Harnisch an die entsprechenden Ausführungen von Frau Prof. Dr. Kneuer aus der vierten Vorlesung an – eher als Katalysator von kurzfristigen Protestbewegungen, während andere politische Prozesse kontinuierlicherer Partizipation und Repräsentation nicht effektiv umgesetzt werden könnten. Dieses vielfältige Thesenbündel erzeugte im Publikum den geringsten Widerspruch und wurde in der Diskussion lediglich gestreift.

    Im Gegensatz dazu stieß die dritte These des ersten Blocks auf erhebliche Kritik. Die Aussage zu Datenschutz und Privatsphäre im Internetzeitaler, wonach Privatsphäre dazu führe, dass Privatheit nicht mehr durch Individuen aufrecht zu erhalten sei, sondern zunehmend durch Dritte abgesichert werden müsse, virtuelle Privatheit also gleichsam zu einem kommodifizierbaren Gut würde, erhielt zwar auch Unterstützung von Seiten einiger Kommentatoren, erregte aber insgesamt klaren Widerspruch. So lägen die Open-Source-Technologien für eine Verschlüsselung etwa der E-Mail-Kommunikation doch offen und könnten von jedermann genutzt werden. Die Notwendigkeit einer Absicherung durch Dritte sei also gar nicht gegeben, so einige Kommentare. Auch inwiefern sich Unternehmen die Sicherung von privaten Daten zum Geschäftsmodell machen könnten oder eher die Ausnutzung einer „Illusion von Privatheit“ etwa in sozialen Netzwerken zu ihrem Geschäftsmodell machen würden, zuletzt auch die Frage, was an dieser Kommodifizierbarkeit eigentlich verwerflich oder nachteilig sei, wurden kontrovers diskutiert.

    Der zweite Block à drei Thesen, nun von Wolf Schünemann vorgestellt, legte andere thematische Schwerpunkte und nahm damit Bezug auf andere Einzelveranstaltungen des Semesters: nämlich die Massenüberwachung durch staatliche Geheimdienste, die Möglichkeiten und Grenzen staatlicher Souveränität im und über das Netz und schließlich zum so genannten Cyberkrieg. Die These zur Massenüberwachung setzte auf der bereits mehrfach angesprochenen Sekuritisierungstheorie auf, wonach das Internet durch diffuse Bedrohungsszenarien und alarmistische Warnungen mehr oder weniger bewusst versicherheitlicht würde. Dabei müsse man sich nur das klassische Spannungsverhältnis zwischen den Grundwerten Freiheit und Sicherheit anschauen. In der Konkurrenz beider Werte um die Stellung als transzendentales Bedürfnis (im Sinne von: ohne X ist alles andere nichts) beobachteten wir in der Internetentwicklung tatsächlich eine begünstigende Schieflage zugunsten der Sicherheit. Mit der Rede von dem „Supergrundrecht Sicherheit“ (Zitat des ehemaligen Bundesinnenministers Friedrich), das die Sekuritisierungslogik besonders deutlich widerspiegele, und ähnlichen Begründungsfiguren würden weitgehende Eingriffe in die demokratischen Freiheitsrechte legitimiert und, wie uns die Enthüllungen zur Massenüberwachung zeigten, zur Standardpraxis staatlicher Geheimdienste erhoben. In der Diskussion erhielt diese Auffassung überwiegend Unterstützung. Von Seiten des Publikums wurde ergänzt, dass die Sekuritisierungslogik auch nach Offenlegung der geheimdienstlichen Massenüberwachung noch weiter greife und nicht von klar und dauerhaft artikulierten Liberalisierungsbestrebungen verdrängt würde.

    Mit der zweiten These, derjenigen zur Souveränität im und über den Cyberspace, zog Schünemann eine differenzierte Bilanz. Damit distanzierte er sich teilweise von den Schlussfolgerungen aus der Vorlesung Milton Muellers, wonach staatliche Souveränität im Internet zwar funktionieren könne, dieses aber in der jetzigen Form zerstören würde. Schünemann stellt dem gegenüber, dass Staaten die Regulierung des Internets in seiner Entstehungsphase zwar den Technikern und Pionieren überlassen haben mögen – für die US-amerikanische Regierung trifft auch dies freilich nur bedingt zu –, dass jedoch mit einem Ausbau des Netzes zu einem Feld immenser wirtschaftlicher Aktivität sowie seiner Entwicklung zu einem Gegenstand politischer Auseinandersetzung mit einer Rückkehr der klassischen politischen und rechtlichen Regulierungsinstanzen sowie einer entsprechenden territorialen Vergrenzung des Cyberspace zu rechnen sei. Dies sei auch bereits zu beobachten, etwa mit Blick auf die Entwicklung des Domain-Name-Systems, den Grundrechtsschutz, die Kriminalitätsbekämpfung oder die Gewährleistung staatlicher Steuerhoheit.

    Die zuletzt vorgestellte These zum Cyberkrieg schließt nahtlos an die entsprechenden Gedanken des letzten Vortragsgastes aus der Vorwoche, Frau Dr. Myriam Dunn Cavelty, an. Auch die beiden Referenten sehen eine Wahrscheinlichkeit des Einsatzes von Internettechnologien für die Kriegsführung vor allem auf Seiten der operationellen Kriegsführung, während eine strategische Dimension im Sinne von Angriffen auf IT-Systeme mit gezielten und gegebenenfalls dramatischen Auswirkungen auf kritische Infrastrukturen von Gesellschaften sowie die Bevölkerungen selbst als unwahrscheinlich eingestuft wird. Um die alarmistischen Warnungen vor einem Cyberkrieg zusätzlich infrage zu stellen, betonen die Referenten in ihrer These zudem auch die soziale Schichtung des Krieges: Die dauerhaftesten und blutigsten kriegerischen Auseinandersetzungen dieser Zeit seien in Regionen zu beobachten, die vom Netz eher abgehängt seien. Für diese Regionen sei noch weniger mit einer strategischen Kriegsführung im Cyberspace zu rechnen. In der Diskussion wurde die klare Haltung gegen eine Wahrscheinlichkeit von Cyberkriegen vielfach infrage gestellt. Schünemann und Harnisch zogen sich weitgehend auf die Differenz zwischen operationeller und strategischer Kriegsführung zurück. So seien Propaganda- und Informationskriege im und über das Internet sehr wahrscheinlich, ebenso wie die Rekrutierung von Terroristen und die makabre Dokumentation terroristischer Gewalttaten. Dies treffe jedoch nicht für weitere Angriffe im Sinne von Stuxnet oder solche mit möglicherweise gravierenderen Kollateralschäden und Folgen für Leib und Leben zu. Wiederholt wurde auch die Frage des Cui bono gestellt, d.h.: Wer ist eigentlich an einer Versicherheitlichung dieses Komplexes interessiert, etwa um eigene technische Entwicklungen vertreiben zu können.

    Am Ende bedankten sich die beiden Sprecher und Organisatoren der Ringvorlesung für das kontinuierlich große Interesse an den Veranstaltungen über das Semester sowie das hohe Niveau der Diskussionsbeiträge und Fragen. Wolf Schünemann nahm abschließend noch wenige Minuten in Anspruch, um verschiedene Forschungsprojekte der Netzpolitik AG vorzustellen. Auf nähere Informationen musste er jedoch aus Zeitgründen verzichten. Sie finden sich zum Nachlesen hier.

    Hier können Sie die Abschlussdiskussion als Audio- (MP3) und Video-Mitschnitt (MP4 / OGV) herunterladen.

     

 

 

 

Informationsmaterial zur Ringvorlesung

Flyer zur RingvorlesungAdobe

Plakat zur RingvorlesungAdobe

Plakat zur PodiumsdiskussionAdobe

 

Medienberichte zur Ringvorlesung

Bericht der Rhein-Neckar-Zeitung vom 29.10.2014Adobe

Bericht der Rhein-Neckar-Zeitung vom 04.12.2014Adobe

Interview mit William Binney in der Rhein-Neckar-Zeitung vom 23.01.2014Adobe

Bermuda.funk Freies Radio Rhein-Neckar e.V. Interview mit Dr. Wolf J. Schünemann (MP3)

Hinweis auf die Ringvorlesung im Newsletter für Verwaltungsmodernisierung "inForm"

Hinweis auf den Abschluss der Ringvorlesung im Newsletter für Verwaltungsmodernisierung "inForm"

 

 

Markus Beckedahl

Foto: Markus Beckedahl (Foto: Fiona Krakenbuerger) betreibt seit 2002 das Blog netzpolitik.org mit dem Themenschwerpunkt Politik in der digitalen Gesellschaft. Der Blog zählt zu den reichweitenstärksten im deutschsprachigen Raum und wurde mehrfach ausgezeichnet. 2003 war er Mitgründer der newthinking GmbH, einer Agentur für Open Source Strategien mit Sitz in Berlin. Ferner ist er Mitveranstalter der Konferenz re:publica.

Von 2010 – 2013 war Markus Beckedahl Sachverständiger in der Enquete-Kommission des Deutschen Bundestages zu „Internet und digitale Gesellschaft“.Seit 2010 ist er Mitglied im Medienrat der Landesmedienanstalt Berlin-Brandenburg und persönliches Mitglied der Deutschen UNESCO-Kommission. Zudem ist er Lehrbeauftragter u.a. für “Soziale Medien” und “Open Source” an der Universität Mannheim und “Open Business – Geschäftsmodelle mit Offenheit” an der Filmakademie Ludwigsburg.

Prof. Dr. Jeanette Hofmann

Foto: Die Politikwissenschaftlerin Jeanette Hofmann forscht am Wissenschaftszentrum Berlin zu den Themen Global Governance, Regulierung des Internets, Informationsgesellschaft und Wandel des Urheberrechts. Sie ist zugleich research associate am Centre for Analysis of Risk and Regulation (CARR) der London School of Economics and Political Science (LSE). Außerdem ist sie Direktorin des Alexander von Humboldt-Institut für Internet und Gesellschaft

2010 ist sie als Sachverständige in die Enquete-Kommission Internet und digitale Gesellschaft berufen worden. Sie hat aktiv am UN-Weltgipfel zur Informationsgesellschaft mitgewirkt und engagiert sich seit 2006 im Folgeprozess als Mitglied der Multi Stakeholder Advisory Group in der Organisation des Internet Governance Forums.

Jeanette Hofmann war eine der drei Gründerinnen der Projektgruppe Kulturraum Internet, die 1994 damit begann, eine sozial- und kulturwissenschaftliche Perspektive auf das Netz zu entwickeln. 2006 hat sie den Band ‘Wissen und Eigentum’ herausgegeben; 2009 den Band ‘Governance als Prozess’ ko-editiert. Derzeit forscht und publiziert sie zu ‘Google Books’, Multi-Stakeholder Prozessen als Verfahren internationaler Konsensbildung und der Koordination des Internet Adressraums.

Prof. Dr. Vincent Heuveline

Foto: Vincent Heuveline ist Leiter des Engineering Mathematics and Computing Lab (EMCL). Ferner ist er als Direktor des Universitätsrechenzentrums mit 85 Mitarbeitern für die IT-Infrastruktur der Universität Heidelberg verantwortlich.

Zu seinen Forschungsinteressen zählen: Uncertainty quantification, Data Mining, High-Performance Computing, Hardware-aware computing, Software-design for scientific computing, Optimization and optimal control for large systems, Cloud Computing und IT-infrastructure.

Prof. Dr. Marianne Kneuer

Foto: Prof. Dr. Marianne Kneuer lehrt und forscht am Institut für Sozialwissenschaften der Universität Hildesheim. Zu ihren Forschungsschwerpunkten gehören die Europaforschung sowie die Bereiche Demokratisierung und Demokratie. Insbesondere hat sie sich mit der Frage beschäftigt, inwiefern das Internet demokratiefördernde Wirkungen entfaltet. In diesem Zusammenhang hat sie den Sammelband "Das Internet: Stressfaktor oder Bereicherung für die Demokratie" herausgegeben.

 

PD Dr. Kai Cornelius, LL.M.

Kai Cornelius lehrt und forscht an der Juristischen Fakultät der Universität Heidelberg. Hier übernahm er im Sommersemester 2014 in Vertretung den Lehrstuhl für Strafrecht und Strafprozessrecht.

Ferner ist er Lehrbeauftragter für Computerstrafrecht an der Universität Hannover. Hier organisierte er auch die Podiumsdiskussionsreihe "Forum IT-Recht". In seiner Forschung beschäftigt sich Kai Cornelius mit Wirtschaftsrecht sowie mit Informationstechnologierecht. Besonders im Fokus stehen dabei die Themen Datenschutz sowie die Praxis staatlicher Überwachungsmaßnahmen (bspw. die Onlinedurchsuchung).

Prof. Michael Froomkin

Foto: Michael Froomkin ist Laurie Silvers & Mitchell Rubenstein Distinguished Professor of Law an der Universität von Miami. Er ist Gründer und Herausgeber der juristischen Online-Zeitschrift Jotwell (The Journal of Things We Like (Lots)). Ferner ist er Gründer von ICANNWatch und Beiratsmitglied verschiedener Organisationen wie der Electronic Frontier Foundation. In seiner Forschung beschäftigt sich Michael Froomkin unter anderem mit Internet Governance, e-democracy, der Regulierung von Kryptographie sowie mit Fragen des Datenschutzes.

Prof. Milton Mueller

Foto: Milton Mueller lehrt und forscht an der School of Information Studies der Syracuse University. Seine Forschungsschwerpunkte liegen im Bereich der Eigentumsrechte sowie der Internet Governance. Er ist Mitgründer des Internet Governance Projects und wirkte aktiv an der Einbindung zivilgesellschaftlicher Akteure in ICANN mit. Ferner war er in verschiedenen Arbeitsgruppen für ICANN tätig.

Prof. Dr. Ekkehart Reimer

Foto: Ekkehart Reimer ist Direktor des Instituts für Finanz- und Steuerrecht sowie Inhaber des Lehrstuhls für Öffentliches Recht, Europäisches und Internationales Steuerrecht an der Juristischen Fakultät der Universität Heidelberg. In seiner Forschung befasst er sich unter anderem mit der Besteuerung großer, international agierender Internetunternehmen.

Dr. Myriam Dunn Cavelty

Foto: Myriam Dunn Cavelty ist Dozentin am Center for Security Studies der Eidgenössischen Technischen Hochschule Zürich. In ihrer Lehr- und Forschungstätigkeit befasst sie sich mit dem sicherheitspolitischen Umgang mit Risiken und Unsicherheit und insbesondere mit der Wahrnehmung des neuen Problemfeldes Cyber-Security. Ferner berät Myriam Dunn Cavelty Regierungen, internationale Institutionen und Unternehmen in Fragen der Cyber-Sicherheit.

Prof. Dr. Sebastian Harnisch

Foto: Sebastian Harnisch ist Professor für Internationale Beziehungen und Außenpolitik am Institut für Politische Wissenschaft der Ruprecht-Karls-Universität Heidelberg. Er war Projektkoordinator des DFG-Projektes „Zivilmächte“ zur vergleichenden Außenpolitikforschung Japans, der USA und der Bundesrepublik und Projektkoordinator des Internet-Projekts „www.deutsche-aussenpolitik.de“. Von 2003 bis 2007 war er Juniorprofessor für Politikwissenschaft und Internationale Beziehungen an der Universität Trier. Zwischenzeitlich vertrat er den Lehrstuhl für Internationale Politik der Universität der Bundeswehr in München.

Seine Forschungsschwerpunkte liegen im Bereich der deutschen und amerikanischen Außenpolitik, der Theorien der Internationalen Beziehungen, der koreanischen Halbinsel und der Nichtverbreitung von Massenvernichtungswaffen.

Dr. Wolf J. Schünemann

Foto: Wolf Schünemann ist Politikwissenschaftler an der Universität Heidelberg. Er lehrt und forscht zu Themen der Internationalen Beziehungen, der europäischen Integration und seit einigen Jahren auch zur Netzpolitik. Nach seinem Studium der Politischen Wissenschaft, der Philosophie, der deutschen Literatur und Medien war er für eine kurze Zeit Praktikant in der IT-Zentralstelle im Innenministerium Rheinland-Pfalz. Bis 2013 arbeitete er dann als Wissenschaftlicher Mitarbeiter an der Universität in Landau.

Webmaster: E-Mail
Letzte Änderung: 10.02.2016
zum Seitenanfang/up