JurPC Web-Dok. 37/2020 - DOI 10.7328/jurpcb202035337

Alexander Konzelmann [*]

Konzelmann, Alexander

Tagungsbericht IRIS 2020

JurPC Web-Dok. 37/2020, Abs. 1 - 63


Von 27. bis 29. Februar 2020 fand in Salzburg im Juridicum der Universität das 23. Internationale Rechtsinformatik Symposion (IRI§) statt. Hervorzuheben an dieser Veranstaltung ist die unmittelbare Verknüpfung von Praxis und Theorie in Präsentationen, Diskussionen und Vorträgen zu einer Vielzahl aktueller Entwicklungen im Bereich Computer, Internet und Recht. Die Beiträge sind in englischer oder deutscher Sprache abgefasst. Parallel zur Veranstaltung erscheint der massive Tagungsband mit den jeweils aktuellen Referaten. Passend zum Selbstverständnis von Informatikern veröffentlicht die Weblaw AG aber auch elektronische Versionen und teilweise Lieveticker bei Twitter über die Beiträge. Für die lokale Organisation besonders gedankt wurde Maria Stoiber, Dietmar Jahnel und Peter Mader.Abs. 1

Hilfreiche Zwischenüberschriften

Abs. 2
Das 90-köpfige Programmkomitee mit Erich Schweighofer, Franz Kummer, Walter Hötzendorfer und Ahti Saarenpää an der Spitze gab das Generalthema »Verantwortungsbewusste Digitalisierung« vor. Dieses Thema wurde beherrscht von Ansätzen, die Entwicklung und Nutzung von künstlicher Intelligenz im Rechtsrahmen wissenschaftlich fassbar zu beschreiben, nachdem bereits viel Definitionsarbeit aus anderen Disziplinen in die Rechtswissenschaft hereingewachsen ist. Die IRIS Konferenz betont ihre interdisziplinäre Ausrichtung und die Einbeziehung der Verwaltung, Wirtschaft und Zivilgesellschaft in das Programm. Sie legt deshalb die Verantwortung für die konkrete Ausgestaltung des Programms in die Hände und Köpfe der Vortragenden. Viele Referenten übernahmen das Generalthema als Ziel- oder Anknüpfungspunkt ihrer Betrachtungen und Werkstattberichte. In bis zu sieben parallelen Sessionen wurden zwei Plenarvorträge und 150 Kurzreferate mit Diskussionsteil zu aktuellen Entwicklungen gehalten. Daher könnte selbst ein idealer Live-Tagungsbericht nur etwa 15 Prozent der Inhalte abdecken. Die Organisatoren machten sich daher die Mühe, sprechende Zwischenüberschriften zu wählen, um die Vorträge für den Suchenden geschickt und übersichtlich zu gruppieren (z.B. Robolaw, Legal Tech, Vertragsanalyse).Abs. 3

Sessions, Werkstattberichte und Praktikabilitätschecks

Abs. 4
Die Referate waren folgenden sogenannten Sessions zugeordnet: Verantwortungsbewusste Digitalisierung, Autonomes Fahren, Text- und Vertragsanalyse, LegalTech, Juristische Informatiksysteme, Rechtsinformation, Suchtechnologien, Robolaw, Theorie der Rechtsinformatik, E-Commerce, E-Procurement, E-Government, E-Justice, E-Democracy, Rechtstheorie, Rechtsvisualisierung, Legal Design, Sicherheit und Recht, Datenschutz und IP-Recht. Kennzeichnend für diese Tagung bleibt seit vielen Jahren, dass – oft auch im Sinne echter Werkstattberichte - einerseits neue Denkansätze auf ihre praktische Relevanz als Hilfsmittel im Rechtsalltag kritisch untersucht werden, und dass andererseits aktuelle »Technologien« auf ihre Konformität mit den vorgefundenen rechtlichen Rahmenbedingungen abgeklopft werden. Praktikabilität, Compliance und eben die »Neuheit« sind die Akzente, auf welche die Rechtsinformatik-Community dabei Wert legt.Abs. 5

„Was ist relevant?“ Automatische Verarbeitung von Gerichtsentscheidungen in Tschechien

Abs. 6
Jakub Harašta von der Masaryk University in Brünn gewann eine Menge von Zitatanalysen durch Data-Mining in Rechtstexten, vorerst in einer Projektarbeit zu obergerichtlichen Entscheidungen aus Tschechien. Die Herstellung von Datenverfügbarkeit war hierbei eine große Voraufgabe, bevor das Data-Mining überhaupt beginnen konnte. Der download-fähige Czech Court Decisions Corpus CzCDC sei dabei erstmalig erstellt worden und enthalte nun 237.000 Entscheidungen des Obersten Gerichts, des Obersten Verwaltungsgerichtshofs und des Verfassungsgerichtshofs von 1993 bis 2019. Sortierfähige Metadaten zur Vorab-Qualifikation seien z.B. Ausgangsgericht, Spruchkörper, amtliche Fundstelle, in Kommentaren zitiert, in Zeitschriften besprochen, von Folgeentscheidungen zitiert. Eine zentrale wissenschaftliche Fragestellung laute bei dieser Arbeit: Was ist Relevanz und welche Arten von Relevanz gibt es? Welche Daten und welche Arten von Daten müssen publiziert werden, damit sie für juristische Fragestellungen genutzt werden können? - Wenn herausgefunden sei, was relevant ist, ist das dann auch für andere Staaten anwendbar? Wie lauten juristische oder allgemeingültige Relevanzkriterien und wie lauten die Benchmarks, damit zahlenmäßige Vergleiche angestellt werden können? Der Referent zitierte hierzu Van Opijnen und Santos' sechs „Dimensionen von Relevanz“ (Über das Relevanzkonzept in juristischen Informationssystemen, https://link.springer.com/content/pdf/10.1007/s10506-017-9195-8.pdf). Systemzentrierte Relevanzbegriffe seien Effizienz und Programmierbarkeit, nutzerzentriert sei die Neuheit, das Passen zu einer konkreten Fragestellung und hinzu kämen noch sogenannte domainzentrierte Relevanzkriterien: im Strafrecht seien beispielsweise andere Dokumente wichtig als im Verwaltungsrecht, aber nicht immer; Entscheidungen von Obergerichten seien oft wichtiger als andere. — Als „Allgemeine Relevanzkriterien“ könne man definieren: die Ähnlichkeit von Fragestellung und Zieldokument, Ergebnisse einer Nahe-bei-Funktion von Suchbegriffen oder das Ignorieren von Partikelwörtern mit Stoppwortlisten. Subjektive Relevanzkriterien zeigten sich hingegen in folgenden Phänomenen: Jeder Nutzer durchsuche die Datenbanken aufgrund einer Arbeitssituation, sodass bei derselben Fragestellung der Richter andere Ergebnisdokumente hilfreich finden werde als der Strafverteidiger oder der Schuldirektor; einfach zu verstehende oder transparent dargestellte Literaturquellen würden erfahrungsgemäß bevorzugt. Und zuletzt erwähnte Harašta die sogenannte bibliografische Relevanz: Eine Veröffentlichung in einer kostenlos abrufbaren Datenbank oder in einer sehr verbreiteten oder hoch angesehenen Zeitschrift werde ebenso bevorzugt wie eine Veröffentlichung in einer leicht zugänglichen online-Quelle. Die frühzeitige Klärung solcher Fragen trage zur Erstellung besserer Datenbanken aus Nutzersicht bei.Abs. 7

Digitalisierung von Rechtsinformationen der EU

Abs. 8
Enrico Francesconi (Vortragender), Rudolf Strohmeier und Gordana Materljan vom Amt für amtliche Veröffentlichungen der EU betonten die Verantwortung dieses Amtes für die nutzerfreundliche Dokumentation juristischer Inhalte trotz der Komplexität des Europäischen Rechtsraumes. Der Zugang zu Gesetzen und Gerichtsentscheidungen sei unter anderem eine Frage von Transparenz und Rechtssicherheit. Daher sei zu klären, wie denn Rechtsinformationen aufbereitet werden sollten, damit solche Rechtsfragen korrekt beantwortet werden können, die bei Google-Anfragen nicht zu direkten Antworten führen. Man benötige hierfür sogenannte „Linked Open Data“ nach dem Beispiel von Wikipedia und DBPedia für korrekte Antworten auf Fragen wie: Wie lautet das Bundesdatenschutzgesetz in der am 1.1.2019 geltenden Fassung? Wann trat die tschechische Durchführungsverordnung zum EU-Verbraucherschutzrecht in Kraft? Welche Verbraucherrechte haben EU-Bürger? Und welche impliziten Verbraucherrechte kommen laut EuGH noch dazu? – Als Hilfsmittel für diese Arbeit erwähnt wurde „Cellar“, ein großes Open-Data-Repository des Amtes für amtliche Veröffentlichungen. Das Common Data Model CDM beschreibe als Ontologie die semantischen Datenstrukturen des „Cellar“ mit seinen 250 Millionen Dokumenten in 24 Sprachen mit 1,5 Milliarden RDF-Triples. Der „Cellar“ solle für die Entwicklung von künstlichen Intelligenzen Unterstützung bieten. Auf diese Weise könnte das Semantische Web mit Linked Open Data den Europäischen Rechtsrahmen beherrschbarer machen. Außer Menschen und Maschinen sollen im Web 4.0 auch noch „intelligente Agenten“ Informationen automatisch suchen und verknüpfen können. Die Dokumentenzentrierung bleibe bestehen, werde aber durch Metadatennutzung und Zusammenführungen überlagert und durch SPARQL-fähige Datenbanken würden überdies auch Subdokumente einfach zugänglich gemacht.Abs. 9

Einblicke in die digitale Transformation einer internationalen Rechtsanwaltskanzlei

Abs. 10
Solche Einblicke gaben Philipp Reinisch und Sarah Schlösser von SCWP Schindhelm (mit Standorten in Österreich und Deutschland), eingebunden in eine größere internationale Allianz. Für die Übergangsphase wurden Aufgaben geteilt zwischen der „IT“ als weiterlaufendem Betrieb und der Gruppe „Digitalisierung“ mit dem Ziel der Innovation; bestehende analoge Prozesse wurden geprüft und hinterfragt, Personal aufgestockt und die anstehenden Maßnahmen wurden intern offen kommuniziert. In der ersten Phase sammelte man Projektanfragen aus den verschiedenen Abteilungen, in der ersten Detailphase wurden Konzepte erstellt, Prioritäten aufgestellt, Ziele formuliert und Vorgänge strukturiert. In der zweiten Detailphase folgten Roadmaps und die Realisierung der Konzepte. Dabei wurden die Einzelprojekte mit vorgefertigten Tabellen dokumentiert und überwacht. Projektübergreifende Strategien waren dabei Standardisierung, Vereinfachung, Wachstum, Automation, Dazulernen, Neue Produkte finden, Spracherkennungstools einsetzen und Wissensplattformen erstellen. Obwohl alle Diktate durch Spracherkennungssoftware ersetzt wurden, musste niemand aus dem Sekretariat entlassen werden. Eine Vertragsgenerator-Software für Kanzleikunden diene nun zur Erstellung und Aktualisierung gleichförmiger Miet-, Arbeits- oder Lieferungsverträge und führe den Mandanten durch ein Menü bis zur Ausformulierung eines Vertragsentwurfes mit fixen und änderbaren Bereichen, die dann in Word (Kundenwunsch) weiterbearbeitet werden können. Anpassungen des Vertragsgenerators dauerten lediglich zwei Wochen.Abs. 11

Verantwortungsbewusste Digitalisierung, gerichtliche Entscheidungen und der Gedanke des fairen Verfahrens

Abs. 12
Jochen Krüger als Vortragender, Stephanie Vogelgesang und Lena-Marie Adam betonten den Gedanken des fairen Verfahrens beim Einsatz von Algorithmen in der Justiz. Die Frage dazu lautete, inwieweit der Einsatz von Algorithmen grundrechtlich abgesicherte Verfahrensrechte in Frage stellen könne. Rechtliches Gehör, effektiver Rechtsschutz, die Öffentlichkeit des Verfahrens und der gesetzliche Richter könnten betroffen sein, wenn Entscheidungen auf Automatismen verlagert werden, die bisher von Menschen getroffen wurden. Der Richter habe eine Begründungspflicht, die verlange, dass er selbst verstanden hat, warum er eine Entscheidung trifft. Dies könne bei „black-box“-Vorgängen nicht gewährleistet werden. Dazu gab es ein aktuelles Beispiel aus dem Saarland. (VerfGH Saarland, 05.07.2019 - Lv 7/17), wo es um ein Bußgeld für zu schnelles Fahren nach automatischer Geschwindigkeitsmessung mit Löschung der Rohdaten ging. Diese Gesichtspunkte werden vom Referenten zusammengefasst unter dem in der EMRK, der – unverbindlichen - Europäischen Grundrechtecharta und weiteren Vorschriften als Recht auf ein faires Verfahren bezeichneten Grundsatz. Staatliches Handeln dürfe in einem freiheitlichen Rechtsstaat nicht undurchschaubar sein, das gelte besonders für das gerichtliche Verfahren. Gesetzlich gerechtfertigte nachvollziehbare Ausnahmen von diesem Prinzip, wie das Mahnverfahren, blieben jedoch auch vor dem Hintergrund der Grundrechte möglich.Abs. 13

Digitale Bürokratie – und die Visualisierung weiterer Konflikte in digitalisierten Organisationen

Abs. 14
Peter Ebenhoch definierte „Bürokratismus“ als regelzielfernen Eingriff in ein Verfahren oder in die Verfahrensbedingungen. Digitale Bürokratie könne in verschiedenen Formen auftreten. Als digitalisierte Bürokratie, würden bestehende bürokratische Phänomene eins zu eins in die digitale Welt übertragen. Auch abgeleitete, sogenannte parasitäre Bürokratismen könnten so digitalisiert werden. Schließlich entstehe originäre digitale Bürokratie durch die hohe Eigen- und Systemkomplexität zeitgemäßer digitaler Systeme, die durch die Virtualisierung und Containerisierung weiter verschärft werde. Auch im digitalen entstehe schließlich eine abgeleitete digitale Bürokratie durch undurchschaubare Lizenzverträge und Benutzungsklauseln proprietärer Softwareanbieter, die die Eindämmung von realen Bedrohungen wie dem Emotet-Trojaner ohne Not erschwert. Die digitale Bürokratie sei selbst von Spezialisten selbst nur schwer und mit hohem Aufwand beherrschbar und rechtlich nicht determiniert. — Die digitale Bürokratie führe dazu, dass die Verwaltung nicht mehr (nur) auf Grund der Gesetze (Art 18 B-VG), sondern (auch) auf Grund von IT-Systemen ausgeübt werde. Um die digitale Autonomie und Handlungsfähigkeit des Rechtsstaats wieder herzustellen müssten daher Gesetzgebung und Verwaltung enger mit der Softwareerstellung und -pflege sowie deren Betrieb verknüpft werden. Kein Verwaltungs- und Gesetzgebungs-Algorithmus dürfe „ohne Gesetz“ ausgeübt werden. In Anlehnung an BizDevOps (vgl. http://www.inztitut.de/blog/glossar/bizdevops/) präsentierte der Referent LegDevOps als Ansatz, der dies in Kombination mit der Idee einer "Minimum Viable Organization" (kleinste Organisation, um den Regelungszweck zu erreichen) auf einer operativen Ebene umsetzbar machen soll.Abs. 15

IT-Architekturmanagementaktivitäten auf Bundesebene in Deutschland

Abs. 16
Obwohl IT-Architekturmanagement laut Dagmar Lück-Schneider von der HWR Berlin ein Thema mit vergleichsweise geringer Öffentlichkeitswirkung sei, berge es doch viel Potenzial, um die IT-Unterstützung im öffentlichen Sektor in Deutschland effektiver, anpassbarer und wirtschaftlicher auszugestalten. Insofern seien die hierzu seit 2007 erfolgten Aktivitäten auf Bundesebene sehr zu begrüßen. Inzwischen werde jährlich eine verbindliche IT-Architekturrichtlinie vorgelegt und ein Produktkatalog der IT-Dienstleister des Bundes stelle sowohl aktuell als auch künftig verfügbare Produkte dar. Um die Potenziale voll zu entfalten, müsse aber das Management der Vorgaben noch deutlich weiterentwickelt werden. Diese Aussage werde auch von einem Bericht des Bundesrechnungshofes aus 2018 gestützt. Darüber hinaus sei die Erarbeitung des Themenfelds „IT-Architekturmanagement“ anhand der vorhandenen, nicht immer in sich konsistenten, Dokumente ausgesprochen mühsam. Eine in sich geschlossene Darstellung zur leichteren Einarbeitung in diesen Themenkomplex sei wünschenswert und würde auch der Zielsetzung, „ein ressortübergreifendes gemeinsames IT-Architekturverständnis“ zu unterstützen, Rechnung tragen.Abs. 17

Der European Law Identifier "ELI" in Theorie und Praxis

Abs. 18
Alexander Konzelmann bedauerte, dass Deutschland als Lücke in der Landkarte auftauche, wenn man nach den Fortschritten suche, welche der European Law Identifier „ELI“ in den letzten Jahren gemacht habe. Der Referent stellte den ELI in seiner Mehrfachfunktion als Aliasname für Vorschriften, Metadatum von Vorschriften und URI-Hyperlink zu Vorschriften vor und benannte die Hauptbestandteile des ELI-Konzepts der EU, nämlich die strenge Orientierung an URI-Templates, die Verwendung normalisierter Metadaten und die Einhaltung eines einfachen Datenformates wie JSON-Linked-Data. Der Hauptvorteil einer Verwendung des ELI auch für deutsche Vorschriften liege in der Ermöglichung automatischer URI-Hyperlinks auf die amtliche online-Veröffentlichung von Gesetzen, ohne dass man deren konkrete Internetadresse kennen müsse. Es folgte ein konkreter Vorschlag zur freiwilligen Lückenschließung in Deutschland: Sogenannte FNA-Nummern für Bundesrecht fänden sich seit Jahrzehnten auf den Deckblättern der BGBl-Hefte, kommerzielle und nichtkommerzielle Portale nutzten diese bestehende Systematik intensiv. Der - vertretbar erscheinende - Aufwand zur Nutzung des nationalen Abschnitts eines ELI mit dieser eindeutigen Kennung wurde an einem praktischen Anwendungsmuster demonstriert.Abs. 19

Zwischen Standesrecht und LegalTech: Verantwortungsbewusste Digitalisierung in der Anwaltsbranche

Abs. 20
Katharina Bisset und Caroline Hahn (Nerds of Law / Arenberg) beleuchteten Probleme des anwaltlichen Standesrechts beim Einsatz von Legal Tech und Digitalisierungswerkzeugen in einer Kanzlei: Security, Hardware, Software, Dokumentation, Produkte, Vermarktung (Webshop), Geschäftsmodell (Externalisierung), Prozesse und Methoden würden auch in Kanzleien durch Digitalisierungsprojekte in unterschiedlichem Maße reformiert. Parallel dazu müsse sich die Unternehmenskultur und die Organisation anpassen. Es sei z.B. verpönt, in einer arbeitsrechtlichen Kanzlei von Work-life-balance zu reden oder Kollegen mit vielen dicken Akten das Ausdrucken und Abheften sämtlicher Dokumente auszureden. Besondere Beachtung bei der „Kanzlei-Digitalisierung“ verlangten die Identifikation des Änderungspotenzials, die Überzeugungsarbeit und das Training der Angestellten anhand neuer Werkzeuge. Spezielle Probleme ergäben sich typischerweise, wenn Daten von Mandanten zusammen mit Daten anderer Mandanten auf einem internen oder gar externen Server lägen und es dann z.B. zu einer Beschlagnahme komme, die nur einen dieser Mandanten betreffe. Das Problembewusstsein und die erforderlichen Technikkenntnisse, um mit dem Behördenanliegen souverän umzugehen, lägen häufig nicht in einer Person vereint vor. Externe Berater seien daher kein Fehler bei solchen Reformprojekten.Abs. 21

Preisträger und Festschrift

Abs. 22
Am Abend wurden die zehn besten Beiträge zum Tagungsband vorgestellt und der LexisNexis Best Paper Award 2020 durch Anton Geist an folgende Sieger verliehen:Abs. 23
Tomer Libal und Alexander Steen wurde der erste Preis zuerkannt für ihren Beitrag mit dem Titel „Normative künstliche Intelligenz: Auf dem Weg zu einer transparenten und nutzbaren halbautomatischen juristischen Textanalyse.“ Die Preisträger haben einen annotationsbasierten Editor entwickelt, in welchem man juristische Texte wie Verträge oder Gesetze händisch semantisch auszeichnen kann, also z.B. Rechtssubjekte, Handlungen, Verpflichtungen, Aufzählungen von Tatbestandsmerkmalen und negative Voraussetzungen farblich markiert, woraufhin dann ein semantischer Logik-Parser den Text auf Redundanzen, Abhängigkeiten und logische Inkonsistenzen abprüft und diese zur weiteren Prüfung hervorhebt.Abs. 24
Gerhard Seuchter, Sabine Proßnegg, Veronika Beimrohr und Dawn Branley-Bell erhielten den zweiten Preis für ihren Beitrag „Die Crux der Zustimmung zu Cookies: rechtliche und technische Analyse von Unzulänglichkeiten bei der Zustimmungseinholung zur Verwendung von Cookies im Zeitalter der DSGVO.“ Es ging dabei um sogenannte „dark patterns“ beim Programmieren der Klickabläufe für die Cookie-Verwaltung, z.B. wenn man acht Klicks benötigt, um eine generelle Ablehnung der Weitergabe von funktionsnotwendigen Cookie-Daten an Dritte durchzusetzen. Dazu analysierten die Preisträgerinnen und -träger die EuGH-Entscheidung zu Planet 49 vom 1.10.2019 C-673/17.Abs. 25
Jonas Pfister erhielt den dritten Preis für seinen Beitrag über verantwortungsbewusste Digitalisierung am Beispiel des österreichischen sogenannten AMS-Algorithmus. Hierbei handelt es sich um eine formalisierte Bewertungsstruktur, die Voraussagen über die Reintegrationschancen in den Arbeitsmarkt in Abhängigkeit von persönlichen Parametern treffen sollte, sich aber der Kritik „Paradebeispiel für Diskriminierung“ ausgesetzt sah. Obwohl nach behördlichen Beteuerungen nur Menschen und keine Maschinen nach diesem AMS-Algorithmus Entscheidungen nach § 25 AMSG getroffen hatten, könnte Artikel 22 DSGVO auf diese Art der Entscheidungsfindung anwendbar sein.Abs. 26
Die IRIS-Wegbegleiter Walter Hötzendorfer, Christof Tschohl und Franz Kummer konnten im Anschluss dem Wegbereiter, Gründer und Spiritus Rector der Veranstaltung Erich Schweighofer eine neue Festschrift überreichen, die nicht nur seine Verdienste um die Rechtsinformatik, sondern auch seinen sechzigsten Geburtstag würdigte. Der Titel des im Weblaw-Verlag erschienenen Werkes lautet „International Trends in Legal Informatics“.Abs. 27

Plenarvortrag über digitale Öffentlichkeit und private Bürokratie: Die Rolle der rechtlichen Risikoanalyse

Abs. 28
Ahti Saarenpää von der Universität Rovaniemi in Finnland erinnerte an die Regel der Armeslänge (Peter Seipel) bei der Beschaffung von Literatur zur Recherche über eine Rechtsfrage: was weiter weg stand, wurde nicht mit einbezogen. Die heutige digitale Entsprechung zu dieser Regel sei die Strategie der Informationsvermeidung (George Loewenstein): Berufsträger in Rechtswissenschaft und -praxis hätten die Tendenz, entweder bereits die Suche nach weiterführender Information zu vermeiden oder zumindest sie nicht vollständig zur Kenntnis zu nehmen, bevor sie sich eine Meinung zu einem Fall oder einer Rechtsfrage bildeten. Hinzu komme die „schlechte IT Bürokratie“, nämlich das defizitäre Design von Informationssystemen: Wenn Fehler, Datenlecks oder unzureichende Algorithmen Schaden angerichtet hätten, würde man zwar häufig nachträgliche Analysen lesen und auch die Erkenntnis, dass menschliches Versagen zu Fehlern geführt habe, die sich nicht wiederholen sollten. Aber viel zu selten werde untersucht, ob nicht bereits die – notwendige - Risikoanalyse vor dem Start des Informationssystems unterblieben oder nur formalisiert durchgeführt worden sei. Beispielsweise habe der finnische Justizminister die Sozialversicherung 2019 aufgefordert zu prüfen, ob und in welchen Fällen sie automatisierte Entscheidungen per Algorithmus treffe, die Artikel 22 der DSGVO verletzen, solange nicht die dort genannten Offenlegungen erfolgt sind. Es sei schade, dass so eine Prüfung erst nach Jahren der ungeprüften Anwendung des eventuell verbotenen Datenverarbeitungsprozesses erfolge. Information sei etwas Wichtigeres als ein billiges Rohmaterial für bürokratische Prozesse und deshalb lohne es sich, sich um gute Informations- und Kommunikationskultur zu kümmern und daraus gute bürokratische Prozesse und gutes Design von Informationssystemen für die Verwaltung abzuleiten. Dies sei nur proaktiv möglich, nicht im Wege der Reaktion auf bereits aufgetretene Fehler und Schadensereignisse. Bei den Designprozessen sei es nötig, die tiefen Strukturen des Rechts mit den tiefen Strukturen der Informationssysteme in Verbindung zu bringen.Abs. 29

Literaturliste

Abs. 30
Sahrenpää erinnerte zur Vermeidung von Wiederholungen in Form einer Literaturliste an frühere und aktuelle Statements zum Thema Bürokratie Kommunikationskultur. Im Rahmen einer Tour d’horizon traten auf: Peter Bull, Informationsrecht ohne Informationskultur? Recht der Datenverarbeitung 2008; Max Weber habe bereits zwischen guter, schlechter, unsichtbarer und professioneller Bürokratie unterschieden. Matti Alho, 1932-1966 Vorsitzender der finnischen Anwaltskammer habe mehrere gute Aphorismen zur Definition von „Recht“ formuliert: Recht seien einerseits nur die Gesetze plus die Entscheidungen, andererseits sei Recht auch wie eine Tasche, in die jeder hineinstecke, was ihm beliebe, und Recht bestehe aus bekannten Begriffen, unter denen aber jeder etwas anderes verstehe. Bundesrichter Harry T. Edwards habe sich über zu viel „law and something-Kurse“ in den Ausbildungsplänen beschwert, welche die Praxis und die Lehre voneinander entfernten. Der Referent warb auch für eine aktuelle Schrift von Anu Talus „From Simply sharing the cage to Living together“ (Dissertation 2019) Diese Arbeit sei der Versuch, den Schutz persönlicher Daten einerseits und die Forderungen nach Open Access miteinander auszusöhnen. Und er bezog sich auf das Werk von Ivan L. Padjen „Systematic Interpretation and the Resystematization of Law“ (Springer Nature 2019) sowie auf Antonio Anselmo Martino, Kobe 1987, „Rechtswissenschaft ist eine der strengsten Wissenschaften überhaupt.“ Aulis Arnio habe gesagt: „Wenn man die Systemgrenzen der Rechtswissenschaft methodologisch überschreitet, findet man keine Legalität mehr.“ Der Referent betonte, heutzutage sei jeder Anwalt ein digitaler Anwalt, ob er es wolle oder nicht. Und daher müsse er sich der Risiken der digitalen Technik für die Rechtskultur stets bewusst sein. Und er stellte die rhetorische Frage: „Wie strikt und streng sind eigentlich die Anwälte heute im digitalen Umfeld?“ (gemeint war offensichtlich: im Umgang mit ihren eigenen Regeln zur Berufsausübung).Abs. 31

Unkundigkeit kaschierende Floskeln

Abs. 32
Es gebe typische Formulierungen, um Unwissenheit gegenüber Neuem zu kaschieren: „muss betrachtet werden als“ „nach allgemeiner Lebenserfahrung“ „bei Betrachtung des Einzelfalls“ „es ist davon auszugehen, dass“, „bei Abwägung der Umstände“: Zitat Sahrenpää zu solchen Floskeln: „Durch den Gebrauch einer Sprache der Uneigentlichkeit offenbaren wir unsere Unkundigkeit.“ Eine gute Risikoanalyse sollte beim Auftreten solcher Floskeln zum Innehalten und zur Vertiefung des Wissens als Entscheidungsgrundlage raten.Abs. 33

Praxisfragen

Abs. 34
Seine drei aktuellen Praxisfragen an die Bürokratie zum Problembereich der präventiven Risikoanalyse lauteten zum ersten: Soll es kommerzielle Cookies in Onlineservices der öffentlichen Hand geben? Hintergrund dieser Frage war, dass nur Spanien, Deutschland und die Niederlande bei einem großen Test keine kommerziellen Cookies auf Behörden-Webseiten gehabt hätten. Und viele dieser Seiten fragten noch nicht einmal das Einverständnis der User ab. Zweitens: Darf es eine Weitergabe persönlicher Daten und automatisierte Entscheidungsfindungen in Diensten der öffentlichen Verwaltung geben? Das oben erwähnte Beispiel zur möglicherweise automatischen Entscheidungsfindung durch die finnische Sozialversicherung KELA stehe eventuell im Widerspruch zu Artikel 22 DSGVO. Ein weiteres Beispiel aus Finnland sei folgendes: Die Steuerverwaltung verlangte von einer Bank eine große Menge von Kundendaten, um ein Benchmarking für statistische und Kontrollzwecke durchzuführen. Auf einen Widerspruch der Bank hin, gestützt auf die DSGVO, wurde die Entscheidung der Steuerverwaltung rückgängig gemacht. Und zuletzt: Sollte die öffentliche Verwaltung tatsächlich alle EU-Vorschriften eins zu eins umsetzen?Abs. 35

Datenethik für verantwortungsvolle Digitalisierung: Probleme, Perspektive, Politik

Abs. 36
Bettina Mielke und Christian Wolff stellten unter dieser Rubrik zuerst einmal aktuelle Literatur zur Datenethik vor, wie z.B. „Ein Algorithmus hat kein Taktgefühl“ (Zweig) und adressierten bekannte Problemfelder wie Diskriminierungsgefahren, Transparenzmangel von black boxes, Datenschutz beim Internet of things, Fragen nach dem Recht auf Vertragsbruch bei Notfällen (Krankenhausfahrt trotz Wegfahrsperre bei nicht bezahlten Leasingraten), Selbstvollziehende Gesetze (Alkoholtest vor Start des Fahrzeugs), Dark-Reading und den sogenannten Cambridge Analytica-Skandal. Vor diesem Aktualitätshintergrund wurde geklärt, dass es im aktuellen Vortrag nicht um Ethik allgemein, sondern nur um die angewandte Berufs-Ethik im Bereich der elektronischen Datenverarbeitung und Kommunikation gehe. Der Trend gehe derzeit dahin, anstelle von „Informationsethik“ auf die einfacher abgrenzbaren Begriffe „Datenethik“ und „Algorithmenethik“ zurückzugehen. Auch für eine Anekdote zur Diskrepanz der Umsetzung von KI in kulturelle Wertesysteme war Zeit: Wenn man einem englischen digitalen Assistenten sage „Ich bin traurig“, antworte dieser sinngemäß „Schade, dass ich keine Arme habe, um Dich zu knuddeln.“, während ein russischer antworte: „Niemand hat gesagt, dass das Leben eine Spaßveranstaltung sei.“ Die Datenethikkommission der Bundesregierung erstellte ein Gutachten (DEK 2019:177) zur KI in diesem Fachbereich, die eine typische Kritikalitätspyramide (Schädigungspotenzial proportional zum Regulierungserfordernis) als Entscheidungsgrundlage empfahl. Der Umfang des Bezugsbereichs, die Reichweite und Geltung geplanter Regulierungen einerseits und der KI-Tätigkeit andererseits, die eventuell involvierten Akteure und der bereits erreichte Konkretisierungsgrad seien Kriterien, nach denen die Vortragenden abgestufte Aktionen der Politik in transparenter Form vorschlugen. — Die anschließende Diskussion ging über die im Vortrag angelegte Wiedergabe des aktuellen Diskurses hinaus und forderte zu persönlichen Stellungnahmen auf, insbesondere zur Frage, welche Kreise primär zur Formulierung politischer und juristischer Vorentscheidungen und Leitlinien berufen sein sollten und ob die Rolle der Grundrechte in den rechtstechnischen Diskussionen nicht über- oder unterschätzt werde.Abs. 37
Die Autoren dieses Beitrags hatten auch einen neuen Masterstudiengang (Aufbaustudium, „Bezahlmaster“) mit dem Titel „Legal Tech“ in Regensburg vorgestellt, der 2020 erstmals angeboten werde und berufsbegleitend belegt werden könne. Die Themen seien alle mit unmittelbarem Bezug zur Rechtsberatung und beinhalteten unter anderem Haftung, Datenschutz, KI, Geschäftsmodelle, Smart Contracts, Kanzleisoftware, Cybercrime, Globalisierung oder auch Kryptografie.Abs. 38

Diskriminierung und Frauenfeindlichkeit – KI als Spiegel unserer Gesellschaft

Abs. 39
Maximilian Leicht, Julia Karst und Jasmin Zimmer aus Saarbrücken erinnerten an die Unterrepäsentation von Frauen in technischen Berufen und in Chefetagen sowie an aktuelle Fälle, in denen Amazon vorgeworfen wurde, Frauen bei Bewerbungen mit einer KI schlechter zu bewerten als Männer, und Apple, bei der Apple-Card Frauen geringere Kreditkartenlimits einzuräumen als Männern. Da eine Unterkategorie der KI das maschinelle Lernen sei, welches auf der Grundlage von bisherigen Datensätzen Voraussagen zu künftigen Entscheidungen trainiere, sei es im System einer solchen KI angelegt, dass bestehende Diskriminierungen von Frauen von lernenden Systemen im Trainingsmodus internalisiert werde (historical biasing). Eine einfache und plakative Kontrollrecherche hierzu sei die Eingabe von „CEO“ in der Google-Bildersuche. Eine weitere Unterkategorie, das sogenannte Deep Learning, das als neuronales Netz dem menschlichen Gehirn nachempfunden sei, zeitige zwar rasche und große Erfolge, sei aber für die vorliegenden Forschungen zu intransparent. Neuronale Netze ohne Rückkopplungen, sogenannte „feed forward-Netze“ seien hingegen für die Betrachtung besser geeignet. Die Signalverarbeitung hänge von unterschiedlichen Gewichtungen der Eingangssignale ab, die in verschiedenen Verarbeitungsstufen durch Parametrisierung verstärkt, addiert oder vernachlässigt würden und wobei das System in der Lernphase eine Korrektur der Parametrisierung durch die beobachtenden Wissenschaftler erfahre. Auch bei der Modellbildung und bei der Auswahl der Grunddaten könne Biasing entstehen, was eine spätere Diskriminierung durch die lernende Maschine mitverursachen könne. Die Vortragenden benannten aktuelle Regulierungsvorschläge zur Korrektur solcher Entwicklungen. Z.B. werde eine Kennzeichnungspflicht des KI-Einsatzes durch leicht verstehbare Icons erwogen, eine Beweislastumkehr zulasten des Algorithmusverwenders und auch der Einsatz eines „comply-or-explain“-Prinzips mit Bußgeldbewehrung bei einer Abweichung von diesem Prinzip. Zuletzt wurde noch das White Paper der EU (COM(2020) 65 final) zu Exzellenz und Vertrauen in Anwendungsbereichen der künstlichen Intelligenz vom 19.2.2020 erwähnt, welches unter anderem auch zur Trainingsdatenqualität sowie zu Dokumentations- und Informationspflichten Stellung nehme. Der Vortrag zeichnete sich durch eine einfache Erläuterung der technischen Hintergründe im unmittelbaren Zusammenhang mit den entstehenden Problemkonstellationen aus.Abs. 40

Eine Skizze zur rechtlichen Verbindlichkeit „ethischer“ KI-Prinzipien

Abs. 41
erstellte Philipp Glas aus Basel. Er hatte eine Häufung von Erklärungen von Staaten und Konzernen zur sogenannten „ethischen“ Nutzung von KI und intelligenten Algorithmen beobachtet. Darin kämen Begriffe vor wie Transparenz, Gerechtigkeit, Verantwortung, das Nichtschadenprinzip, Vertrauen, Nachhaltigkeit, Würde oder auch Solidarität. Der Referent fragte sich, warum solche vorauseilenden Selbstregulierungen modern werden und bot als eine mögliche Interpretation an: Man sieht staatliche Regulierungen am Horizont aufkommen und sorgt durch solche Soft-Law-Selbstverpflichtungen dafür, dass gewisse Regulierungsbereiche eventuell proaktiv der „weicheren“ Ethik zugeordnet werden anstatt der strengen Einteilung in legal/illegal. Allerdings sei es für gewisse tragende Prinzipien im rechtsstaatlichen Umfeld unumgänglich, dass auch Regelungen zum KI-Einsatz privatautonom vertraglich, zwischenstaatlich durch völkerrechtliche Verträge oder EU-Recht und/oder national durch Gesetze und Verordnungen „hart“ geregelt werden. (Beispiel: Datenschutzrechtliche Aspekte von Airbnb.) Die geeigneten juristischen Einfallstore der Ethik in die Privatautonomie seien die Regelung zur Verwirklichung von Grundrechten in Artikel 35 der schweizerischen Bundesverfassung, die richterliche Rechtsfortbildung nach Artikel 1 des schweizerischen Zivilgesetzbuches, die Generalklausel zum Schutz der guten Sitten sowie der Persönlichkeitsschutz nach dem Zivilgesetzbuch.Abs. 42

Use Cases und Methoden zur digitalen Vertragsintelligenz in großen Unternehmen

Abs. 43
Bernhard Waltl von BMW trug zum Themenbereich „Text- und Vertragsanalyse“ bei, indem er Anwendungsbeispiele aus der Praxis zur Implementation von „Intelligenz“ in datenbankmäßig hinterlegten Verträgen vorstellte. Verträge müsse man in Unternehmen erst in vielen Abteilungen zusammensuchen. Dann müssten viele davon gescannt und mit OCR behandelt werden, bevor sie digital in Textform zentral abgelegt werden könnten. Erst jetzt könne Text Mining und gezieltes Durchsuchen stattfinden. Der Bearbeitungsprozess der Smart Information Extraction (eine Art automatisiertes Tagging von Metadaten) folge. Nun könnten die Verträge einer Datenbank zugeführt werden. Nach Abschluss solcher Vorbereitungsschritte dürfe man an weitere Schritte wie automatisches Risikomanagement, Konsistenzprüfungen und Ablage von Verträgen in einer Blockchain denken. Das Zukunftsziel wären selbstausführende und sich selbst kontrollierende / aktualisierende Verträge. — Die intelligente Suche für Verträge in Textform finde z.B. Parteibezeichnungen, Kalenderdaten, Unterschriften, Wiedervorlagedaten, Vertragsstrafenklauseln, Haftungsklauseln oder Preise. Als Vorreiter-Beispiel benannte der Referent die für Zwecke des automatischen Risikomanagements im internationalen Credit-Swap-Geschäft etablierten sogenannten ISDA-Verträge, die einem Muster folgen, sodass sie automatisiert ausgeführt, geprüft, aktualisiert und erfüllt werden können. ISDA sei selbst ein Vertrag, der die Systemteilnehmer dazu verpflichte, ISDA-konforme Verträge untereinander abzuschließen. Bestimmte einseitige Klauseln seien nach diesem System verboten und würden von den Suchfunktionen identifiziert. — Die Datenvorbereitung für Smart Text Extraction oder automatisierte Übersetzungen funktioniere zuerst über ein Splitting, eine nachfolgende Segmentierung und dann eine Tokenization bis auf die Ein-Wort-Ebene, bevor auf verschiedenen Stufen Metadaten und Kennzahlen extrahiert würden. Zukünftige Verträge könnten auch von vornherein getaggt und nach Templates abgefasst werden, um sie zuverlässig maschinenlesbar zu gestalten. Aber für bereits bestehende Verträge seien die angeführten Bearbeitungsschritte notwendig. — Je größer das Unternehmen sei, desto größer könne die Hebelwirkung sein, wenn es seine Vertragslandschaft mit digitaler Vertrags-Intelligenz „aufrüste“.Abs. 44

Datenbasierte Verwaltungsakte in Ungarn

Abs. 45
Syi, Gábor Hamp und Réka Markovich (Vortragende) berichteten von einem Forschungsauftrag zu einem Thema aus dem ungarischen Recht der Unterstützung für Familien. Es schien so, dass viele von 500.000 jährlichen Verwaltungs-Entscheidungen eventuell automatisiert ergehen könnten. Daher sollte vorab das konkrete Einsparpotenzial unter Berücksichtigung der Entwicklungskosten für die Automatisierung ermittelt werden. Vor der Kalkulation seien allerdings juristische Vorfragen zu klären: Das Recht der Familienhilfe enthalte viele Vorschriften, die konstitutiv für Ansprüche und Statusfragen sind, sodass keine Anträge und Verträge notwendig sind, bevor konkrete Regelungen in Kraft treten können. Bescheide könnten daher direkt aufgrund der Gesetzeslage ergehen. Die notwendigen persönlichen Daten befänden sich in Ärzteunterlagen, bei Standesämtern, in Schultagebüchern und bei Jugendämtern. Sie stünden also technisch gesehen den Ämtern für Familienhilfe sowie den Finanzdirektionen zur Verfügung, unterliegen aber rechtlich dem Schutz der DSGVO. Hier sei stets eine Abwägung vorzunehmen, bevor eine Entscheidung getroffen werden könne. Wenn dann tatsächlich eine automatische Entscheidung ergehe, stellt sich noch die Frage, in welcher Form diese den Betroffenen zugehen soll, damit sie sie als behördlichen konstitutiven Akt und als Korrelat zu einer Bescheidurkunde anerkennen und befolgen. Der Verwaltungsakt als solcher sei nämlich im ungarischen Recht nicht-kodifiziertes Richterrecht, sodass hier ein gewisser Entscheidungsspielraum bei der Verkündungsform bestehe, der Chance und Gefahr zugleich sei.Abs. 46

Inkonsistenzsuche in Rechtstexten

Abs. 47
Tereza Novotna aus Brünn (Mazaryk University) zeigte eine Anwendung des Logik-Parsers, über den auch die Preisträger Tomer Libal und Alexander Steen berichtet hatten, und zwar hinsichtlich einer unklaren Regelhäufung einer Universitätsbibliothek. Dazu bereitete die Referentin auch die theoretischen Grundlagen auf: Die Suche nach Inkonsistenzen innerhalb eines Dokuments sowie nach Inkonsistenzen mit höherrangigem Recht könne im Idealfall Streitfälle vermeiden helfen und Compliance herstellen. Die Referentin ging davon aus, dass mindestens zwei Sorten von Konsistenzkonflikt vorkommen: Eine Regel kann einer höherrangigen Regel widersprechen und die Fakten können einer Regel widersprechen (rule inconsistency / fact inconsistency). Inkonsistenzen könnten aber auch nur dem Wortlaut nach bestehen, sodass sie durch Interpretation oder durch die Anwendung von lex specialis-Regeln oder Öffnungsklauseln aufgelöst werden. Dies mache es komplex, eine intelligente Inkonsistenzsuche zu programmieren, die nicht bei solchen unechten Inkonsistenzen „anschlägt.“ Mit dem Legislation Editor auf https://nai.uni.lu könne man händisch natürlichsprachlichen Text in annotierten Text transformieren und dann eine solche Inkonsistenzsuche durchführen. Das Tool sollte auch mit anderen Sprachen funktionieren, weil es nur mit den Annotationen arbeite, nicht mit den konkreten Inhalten.Abs. 48

Sammler von „Behavioral Surplus“

Abs. 49
Bernhard Collini-Nocker von PLUS Computerwissenschaften wählte die Überschrift „Wenn Gerichtsurteile Wikipedia zitieren“ als Aufhänger, um vor der unbegrenzten Sammlung persönlicher Daten durch „Überwachungskapitalismus“ großer Anbieter zu warnen. Er zitierte Shoshana Zuboff und bezeichnete den sogenannten „Verhaltensüberschuss“ als Gold des 21. Jahrhunderts. Verhaltensüberschuss sei alles, was man bei Aktivitäten im Netz (oder auch nur bei angeschaltetem Smartphone in der Tasche) „nebenbei“ unbewusst von sich an messbaren Informationen preisgebe; hierdurch ergäben sich verkaufbare Datensammlungen. Er rief zur Nutzung von open source-Alternativen auf.Abs. 50

Datenschutz als Spielverderber beim Einsatz künstlicher Intelligenz im Gesundheitsbereich?

Abs. 51
Über einen Zielkonflikt zwischen dem Datenschutz und der medizinischen Forschung ging es beim Referat von Marie-Catherine Wagner (Wien) als Referentin und Ziga Skorjanc. Ausgangspunkt war ein Zitat auf der Seite Fraunhofer.de: „Wie ein digitaler Zwilling Leben retten kann.“. KI könne zumindest bei der Krebsbekämpfung nach Aussage von Forschern Mediziner unterstützen, indem sie große Datenmengen von Patienten und Krankheitsverläufen digitalisiert und standardisiert, sodass sie zu Vergleichszwecken mit dem Ergebnis von Diagnose- und Therapieempfehlungen genutzt werden können. Die EU fördere Projekte zur Herstellung der internationalen Interoperabilität solcher Rohdaten. Die DSGVO enthalte allerdings zu Gesundheitsdaten ein Verbot mit Erlaubnisvorbehalt. Manche Datensätze zu Gesundheitsdaten könnten häufig nicht ohne Nutzenverlust anonymisiert werden. Aliasnamen hälfen nicht gegen die Rekonstruierbarkeit, insbesondere, wenn DNA involviert sei. Auch die DSGVO-konforme Aufklärung eines Patienten, damit dieser wirksam in die Erhebung seiner gesundheitlichen Personendaten einwilligen kann, könne im Falle eines aktuellen Krankheitsgeschehens hohe Hürden aufstellen, die mindestens so streng seien wie die Aufklärung und Einwilligung zur Behandlung als solcher (Vgl. Artikel 89 DSGVO). Das aktuelle österreichische Forschungsorganisationsgesetz enthalte die passenden Öffnungsklauseln für die medizinische Forschung, damit die DSGVO hier nicht allzu hinderlich werde. Es könnte allerdings in einzelnen Bereichen die Betroffenenrechte europarechtswidrig einschränken.Abs. 52

KI und Recht oder das Vertrauensdilemma – und die unzuständige KI

Abs. 53
Felix Gantner von Infolex hinterfragte, wer beim Einsatz von KI worauf vertraut und ob es ungerechtfertigten Vertrauensüberschuss gebe. Als erstes Beispiel wählte er das bereits erwähnte Problem des österreichischen Arbeitsmarktrechtes mit der statistischen Methode zur Beurteilung von Reintegrationsaussichten „AMS“ und dabei die Frage des Einsatzes eines Algorithmus (sogenannter AMS-Skandal). Das Sozialministerium habe hierzu beteuert: Wir ermuntern die Mitarbeiter, das Ergebnis der systematischen Berechnungen kritisch zu überdenken und auch möglichst oft auch davon abzuweichen. Dennoch komme es zu einem Automation Bias, also einer positiven Voreingenommenheit des Benutzers gegenüber der Maschine, da man prinzipiell davon-ausgehe, dass das, was die Maschine mache, im Ergebnis richtig sei. Er zitierte sinngemäß Virginia Eubanks, Automating Inequality: Wir tendieren dazu, die Maschine als neutraler und objektiver einzuschätzen als uns selbst. Aber es ist beunruhigend zu wissen, dass Manager glauben, im Konfliktfall würden sich die Menschen an das Modell anlehnen, wenn der Computer ein unerwartetes Ergebnis liefert. Gantner berichtete über ein Experiment mit Taschenrechnern, die beliebige Ergebnisse produzierten: Die Schmerzgrenze der Benutzer erwies sich als ausgesprochen hoch. Je größer das Maschinenvertrauen werde, desto kleiner werde das Selbstvertrauen. Hinzu komme das Systemvertrauen darauf, dass eine Maschine für die geeigneten Arbeiten eingesetzt werde. Dazu passe auch folgendes soziologisches Zitat: „Was funktioniert, das funktioniert. Was sich bewährt, das hat sich bewährt. Darüber braucht man kein Einverständnis erzielen.“ (N. Luhmann, Die Gesellschaft der Gesellschaft) – Für Gantner gelten solche Sätze für klassische „deduktive“ Maschinen, aber nicht mehr für Einsatzgebiete der künstlichen Intelligenz, also für von ihm sogenannte „abduktiven“ Systeme. Abduktionen seien Schlüsse, die auf Korrelationen anstatt auf Kausalitäten beruhen. — Einen Ansatz zur Konfliktlösung sah der Referent darin, dass in die KI-Systeme selbst Regeln implementiert werden, die feststellen, wann ein Fall gegeben ist, für dessen Modelle und Variablen sie nicht geschaffen wurden; in solchen Fällen sollten sich die Maschinen, also die KI-Systeme selbst für „unzuständig“ erklären und die Ergebnisberechnung ablehnen. Zudem sollten „abduktiv“ arbeitende Maschinen auch eine Begründung ihres Ergebnisses ausgeben, damit dem Benutzer oder dem Betroffenen Transparenz angeboten werde.Abs. 54

Vorschau: das Post-Digitalisierungszeitalter

Abs. 55
Im Arbeitskreis Utopie und Science Fiction behauptete Wolfgang Schinagl, dass der nächste kalte Winter der Artificial Intelligence bestimmt komme. Die sogenannte künstliche Intelligenz sei nun schon zweimal für tot erklärt worden und wieder auferstanden. Deshalb kündigte er für das dritte Abflauen dieses Hypes eine neue Entwicklung an: Das Post-Digitalisierungszeitalter und die Emergenz des künstlichen Bewusstseins, Artificial Consciousness (AC). Society 5.0 sei bereits ein neues Buzzword und bedeute künstliche Intelligenz plus Nachhaltigkeit. Er verwies auf den Gartner Hype-Cycle for Artificial intelligence, der mit einer Parabel beginne, weniger steil erneut ansteige und dann eine Asymptote anstrebe, also eine Kurve, die vom technologischen Auslöser über den Gipfel der überzogenen Erwartungen durch das Tal der Enttäuschung auf das Plateau der Produktivität führe und auf viele Phänomene anwendbar sei. - Den ersten Hype der KI habe sie ab 1948 mit Norbert Wiener und „Cybernetics“ am MIT erlebt, beginnend mit elektrischen Schildkröten als erste Roboter, an den sich Alan Turing mit dem 1950 erstmals publizierten Turing-Test anschloss. (Der seit 1991 ausgelobte goldene Loebner-Preis sei bisher noch keinem Chatbot für ein Frage-Antwort-Spiel verliehen worden.) 1956 auf der Dartmouth Conference in Hanover, New Hampshire habe es dann ein „Research Project on Artificial Intelligence“ gegeben, in welchem neuronale Netze, die Computererkennbarkeit der natürlichen Sprache, die Komplexitätsreduktion durch automatische Prozesse und die Programmiersprache LISP thematisiert wurden. Was Computer nicht können habe hingegen Hubert L. Dreyfus in einem Werk über die Grenzen der künstlichen Intelligenz erörtert. 1973 erfolgte ein ernüchternder Bericht von Sir Michael James Lighthill mit einem vernichtenden Urteil über den Stand der künstlichen Intelligenz (Gutachten im Auftrag der britischen Regierung). Diese Phase sei laut Schinagl der erste kalte Winter der AI gewesen. Und der zweite folgt sogleich: 1983 sei ein Buch von Edward Feigenbaum und Pamela McCorduck erschienen, „Die fünfte Computer-Generation. Künstliche Intelligenz und die Herausforderung Japans an die Welt“. Relais, Röhren, Transistoren, Chips und VLSI (very large scale integration) seien die erste bis fünfte Generation von Rechnern gewesen. Mit der sogenannten 5. Generation sei es möglich geworden, Wenn-Dann-Ketten zu verknüpfen, Expertensysteme und LISP-Verarbeitung auszuführen. Diese 5. Generation sei aber gefloppt, trotz Forschungsfinanzierung zulasten der Verteidigungs-Etats. Den dritten kalten Winter verortete der Referent in der geringen Erfolgsrate von Expertensystemen, Machine Learning und Deep Learning im Verhältnis zum Investitionsaufwand. Die Kritik an diesen Entwicklungen beruhe auf folgenden Punkten: unklare Mechanismen der Neuronen aufgrund von sogenannten „hidden layers“, reine Mustererkennung, Input von Daten aus der Vergangenheit, Problem von „Bad and Messy Data“, kein Verstehen oder Erklären der Daten durch den Computer, sondern im Vorfeld durch Menschen, die bei der Mustererkennung assistieren. Wenn man einem Kleinkind mehrmals den Kasper zeige und dazu sage: „Das ist der Kasper“ und anschließend das Krokodil mit derselben Aussage präsentiere, dann speichere ein Kleinkind nicht das Krokodil als neue Ausprägung des „Kasper“ ab, sondern es sage lachend „nein“. — Für die Verbesserung dieser Sachlage werde gefordert, man müsse in den Computer ein „ich“ einbauen. Zudem werde gefordert, die zweiwertige Logik zu verlassen. Systeme, die nicht nur ein Bewusstsein, sondern auch ein Unbewusstes haben, seien die Voraussetzung, um wirklich „menschenähnlich“, nämlich aus der subjektiven Perspektive (first person view) zu lernen und zu reagieren. Der Referent verwies für die Begrifflichkeiten auf die „Philosphy of Mind“. Deshalb sei möglicherweise „Artificial Consciousness“ das neue Buzzword für die Post-Digitalisierungsphase.Abs. 56

Leben 3.0 und das Recht

Abs. 57
Peter Lechner berichtete über das Werk des MIT-Physikprofessors Max Tegmark „Leben 3.0, Menschsein in Zeiten künstlicher Intelligenz“ und hob diejenigen Aspekte heraus, die juristische Bezüge aufwiesen. Lechner wies eingangs auf die nicht immer positiven Rezensionen zu diesem Buch auf amazon hin. Es werde laut Tegmark Gesetze von hoher Gerechtigkeit und Effizienz geben. Roborichter würden große Datenmengen ohne menschliche Defizite wie Müdigkeit und Vorurteile sehr schnell guten Entscheidungen zuführen. Selbstfahrende Autos würden sich selbst gegen Unfallschäden versichern. Ein Instanzenzug werde daher überflüssig, Rückfallquoten von Straftätern würden minimiert. Lechner fragte, ob solche Roborichter bestochen oder gehackt werden könnten und ob es dann anstelle gerissener Anwälte „gerissene Algorithmen“ gegen Geld zu kaufen gäbe. — Eine Grundfrage des Referenten lautete: Kann eine menschliche Intelligenz eine künstliche Intelligenz erschaffen, die größer als sie selbst ist? Falls das nämlich möglich sein sollte, könnten am Ende einer logischen Kette alle entstandenen Super-Intelligenzen eine (materiegebundene) Über-Intelligenz erschaffen, welche das gesamte Universum erobert. Tegmark scheine dies vorauszusetzen und entwickle alternative Dystopie-Szenarien, die auf solchen Annahmen fußten. Allerdings kläre er nicht, was er selbst unter „Intelligenz“ verstehe, sondern sage nur, sie stehe für die Möglichkeit, komplexe Ziele zu erreichen. Ob eine Über-KI im Sinne von Tegmark überhaupt ausgeschaltet werden könne, bleibe leider auch ungeklärt.Abs. 58

Autonomes Stillstehen

Abs. 59
Abschließend prognostizierte der Lechner, dass das selbstfahrende Auto nicht kommen werde, weil es zu intelligent sei. Als Beweis führte er ein Foto aus einem indischen Großstadt-Stau an, der autonome Fahrzeuge zum Stillstand bringen würde, indische Taxifahrer jedoch nicht. Eine Benchmark für autonomous driving sei übrigens auch die sich verengende Schottengasse in Wien.Abs. 60

Ein Tiefeseetintenfisch als Fabel für die Zukunft des Menschen

Abs. 61
Über den vom Medien- und Kommunikationstheoretiker Vilém Flusser erfundenen Tintenfisch Vampyrotheutis Infernalis (https://de.wikipedia.org/wiki/Vampirtintenfisch) als Fabel für die Zukunft des Menschen referierte Elisabeth Hödl und hatte auch das ursprüngliche Buch von 1987 dabei, in welchem die Forschungsergebnisse von Carl Thun zu dieser versteckt lebenden Lebensform als wissenschaftlicher Witz publiziert wurden. Lange vor dem Siegeszug der digitalen Medien habe Flusser die Möglichkeiten und Gefahren der Digitalisierung analysiert und für soziale Medien brauchbare Theorien aufgestellt: Wir lebten in einer hochgradig vernetzten Welt, wodurch neue Kommunikationsstile, Verhaltensmuster und Atmosphären entstünden. In dem Text „Vampyroteuthis Infernalis“ beschäftige sich Flusser medientheoretisch mit dem Bild des Riesenkraken in den Tiefen des Ozeans und halte damit dem künftigen Kulturleben des Menschen einen Spiegel entgegen: Beide erwerben Informationen, um sie an andere weiter zu geben; es gehe aber auch darum, die erworbenen Informationen kumulativ in einem Gedächtnis zu speichern. Flusser habe vom Umschwung vom kosmischen Dorf zum kosmischen Gehirn gesprochen. So wie der Tiefseetintenfisch sich im Meer treiben lassen könne, um zu filtern und aufzunehmen, was vorbeikomme, so könne der moderne Mensch im Datenmeer des Internet verbleiben und die vorbeikommenden Inhalte im Gehirn oder in Datenspeichern ansammeln.Abs. 62
Die nächste IRIS-Tagung findet voraussichtlich Ende Februar 2021 in Salzburg statt.Abs. 63

Fußnoten:

[*] Dr. iur. Alexander Konzelmann ist Lektor für elektronische Medien beim Richard Boorberg Verlag in Stuttgart.

[online seit: 10.03.2020]
Zitiervorschlag: Autor, Titel, JurPC Web-Dok, Abs.
Zitiervorschlag: Konzelmann, Alexander, Tagungsbericht IRIS 2020 - JurPC-Web-Dok. 0037/2020