Wenn wir online scrollen, denken die meisten von uns nicht viel darüber nach, was hinter den Kulissen vor sich geht – wer entscheidet darüber, welche Inhalte wir sehen können und welche nicht.
Diese Entscheidung liegt oft in den Händen von Unternehmen: Facebook, TikTok und die meisten großen Social-Media-Plattformen haben Regeln darüber, welches Material sie akzeptieren, aber die App kann inkonsistent und alles andere als transparent sein.
In den letzten Jahren hat die Bundesregierung auch eine Reihe von oft umstrittenen Gesetzen verabschiedet, die ihr mehr Kontrolle darüber geben, was online ist.
Da ist zum Beispiel das neue Online-Sicherheitsgesetz, das Mitte letzten Jahres in Windeseile verabschiedet wurde.
Dies zwingt unter anderem die Technologiebranche – zu der nicht nur soziale Medien, sondern auch Messaging-Dienste wie SMS, Internetdienstanbieter und sogar das Unternehmen hinter Ihrem Modem gehören –, neue Codes zu entwickeln, die die „schädlichen Online-Inhalte“ regulieren.
Diese von Industriegruppen verfassten Kodizes werden viel darüber aussagen, wie unsere Technologie geregelt wird, aber einige befürchten, dass sie unbeabsichtigte Folgen haben könnten, nicht zuletzt, weil sie Anleihen bei einem veralteten Klassifizierungssystem machen.
Was sind die Codes?
Nach Inkrafttreten des Online-Sicherheitsgesetzes forderte der Electronic Safety Commissioner die Industrie auf, Code-Entwürfe zur Regulierung „schädlicher Online-Inhalte“ zu entwickeln.
Wie vom eSafety Commissioner festgelegt, wird dieses „schädliche“ Material als „Klasse 1“ oder „Klasse 2“ bezeichnet.
Diese sind dem Nationalen Klassifizierungsschema entlehnt, das am besten für die Bewertungen von Filmen und Computerspielen bekannt ist. Mehr dazu gleich.
Im Allgemeinen können Sie Klasse 1 als Material betrachten, dem die Klassifizierung verweigert würde, während Klasse 2 als X18+ oder R18+ klassifiziert werden könnte.
Letztendlich hat die Industrie Entwürfe von Kodizes vorgelegt, die darlegen, wie sie Schutzmaßnahmen gegen den Zugriff auf oder die Verbreitung dieses Materials einführen werden.
Sie variieren je nach Branche und je nach Unternehmensgröße. Beispielsweise kann der Kodex von einem Unternehmen verlangen, anstößige Inhalte sozialer Medien den Strafverfolgungsbehörden zu melden, Systeme einzurichten, um gegen Benutzer vorzugehen, die gegen Richtlinien verstoßen, und Technologien einzusetzen, um bekanntes Material automatisch zu erkennen sexuelle Ausbeutung von Kindern.
Welche Inhalte sind betroffen?
Vorerst befassen sich die Entwurfscodes nur mit Hardware der Klassen 1A und IB.
Laut eSafety kann Klasse 1A Material zur sexuellen Ausbeutung von Kindern sowie Inhalte enthalten, die Terrorismus befürworten oder Verbrechen oder extreme Gewalt darstellen.
Klasse 1B hingegen könnte Material enthalten, das „Fälle von Verbrechen, Grausamkeit oder Gewalt ohne Rechtfertigung“ zeigt, sowie drogenbezogene Inhalte, einschließlich detaillierter Anweisungen zum Konsum verbotener Drogen. (Die Klassen 1C und 2 befassen sich hauptsächlich mit Online-Pornografie.)
Offensichtlich gibt es Inhalte in diesen Kategorien, die die Community als anstößig empfinden würde.
Das Problem ist, sagen Kritiker, dass Australiens Ansatz zur Klassifizierung verwirrend ist und oft nicht mit der öffentlichen Meinung übereinstimmt. Das nationale Klassifizierungssystem wurde 1995 verkündet.
„Das Klassifizierungssystem wird seit langem dafür kritisiert, dass es eine ganze Reihe von Materialien erfasst, deren Erstellung, Zugriff und Verbreitung vollkommen legal ist“, sagte Nicolas Suzor, der Internet-Governance an der University of Queensland Technology studiert.
Und die Bewertung eines Films für Kinos ist eine Sache. Die Kategorisierung umfangreicher Online-Inhalte ist eine andere.
Berücksichtigen Sie potenzielles Material der Klasse 1B – Anweisungen zu Straftaten oder Informationen zum Konsum verbotener Drogen.
Es gibt Szenarien, in denen wir hypothetisch möchten, dass diese Informationen verfügbar sind, schlug Dr. Suzor vor, wie die Möglichkeit, Menschen in bestimmten Bundesstaaten der Vereinigten Staaten sichere Informationen über medizinische Abtreibungen zur Verfügung zu stellen.
“Das sind wirklich schwierige Kategorien, die man auf irgendeine Art von ‘Internet-Skala’ anwenden kann, weil man ganz klar alle Grauzonen trifft”, sagte er.
Es gab kürzlich eine Überprüfung der australischen Einstufungsvorschriften und ein Bericht wurde im Mai 2020 vorgelegt, aber es bleibt unklar, wie sich dies auf vorgeschlagene Industriekodizes zur Regulierung „schädlicher Online-Inhalte“ auswirken könnte.
Müssen Unternehmen meine Nachrichten jetzt überwachen?
Die Kodizes sollen fast alle Branchen betreffen, die mit dem Internet in Berührung kommen, und es gibt Bedenken darüber, wie die Privatsphäre beeinträchtigt werden könnte, wenn sie auf persönliche Nachrichten, Dateien und andere Inhalte angewendet werden.
Einige große Social-Media-Plattformen verwenden bereits digitale „Fingerabdruck“-Technologie, die versucht, bekannte sexuelle Ausbeutung von Kindern oder Pro-Terror-Material proaktiv zu erkennen, bevor es hochgeladen wird.
Das eSafety-Büro hat Interesse bekundet in Code, der ein gewisses Maß an proaktiver Überwachung erfordert – das Abfangen „schädlicher“ Inhalte, bevor sie veröffentlicht werden.
In den Code-Entwürfen haben Branchengruppen jedoch erklärt, dass eine Ausweitung der proaktiven Erkennung ernsthafte Auswirkungen auf die Privatsphäre haben könnte, wenn es um die private Dateispeicherung oder -kommunikation geht.
Es gibt auch Bedenken, dass die Kodizes einen Ansatz zur Moderation von Inhalten verstärken werden, der wirklich nur großen Spielern zur Verfügung steht. Scan-Tools sind nicht unbedingt billig oder leicht verfügbar.
„Viele dieser vorgeschlagenen Lösungen erfordern große Technologie, um groß zu bleiben, um diese Compliance-Anforderungen zu erfüllen“, sagte Samantha Floreani, Programmmanagerin bei Digital Rights Watch.
Ein Sprecher von eSafety sagte, er würde nicht erwarten, dass Branchenkodizes kleinen Unternehmen das gleiche Maß an Verpflichtungen auferlegen wie großen Unternehmen.
Dann stellt sich die Frage, ob die proaktiven Erkennungssysteme korrekt sind und ob es Rechtsmittel gibt.
Gala Vanting, Leiterin der nationalen Programme bei der Scarlet Alliance, sagte, der Einsatz dieser Technologie sei für Menschen, die in der Sexindustrie arbeiten, von besonderer Bedeutung.
“Es ist sehr wahrscheinlich, dass er den Inhalt überzeichnet. Er ist sehr ungeübt darin, den Kontext zu lesen [around] sexuelle Inhalte“, sagte sie.
Ein weiterer erschwerender Faktor ist, dass auch eine Überprüfung des Datenschutzgesetzes im Gange ist, die sich auf die Funktionsweise dieser Codes auswirken könnte. Nehmen wir zum Beispiel die Einführung von Anforderungen, die den Scan einschränken könnten.
Ein Sprecher von Generalstaatsanwalt Mark Dreyfus sagte, die Abteilung werde noch in diesem Jahr einen Abschlussbericht vorlegen, in dem Reformen des australischen Datenschutzgesetzes empfohlen werden.
Und danach?
Industry-Code-Projekte sind jetzt offen für öffentliche Kommentare. Als nächstes wird das Büro des Online-Sicherheitsbeauftragten bewerten, ob es die Codes für aktuell hält.
Einigen Berichten zufolge verlief die Konsultation jedoch unregelmäßig, und viele Gruppen der Zivilgesellschaft glauben, dass das Konsultationsfenster zu klein und unrealistisch ist.
Es gibt auch einige Frustration darüber, dass die Kodizes vor der Überprüfung des Datenschutzgesetzes entwickelt werden, neben anderen potenziellen Online-Regulierungsänderungen, die auf dem Tisch liegen, was zu einem ziemlich verwirrenden Regulierungssystem für Online-Inhalte führen könnte.
Dann gibt es die Debatte darüber, ob Australien in diesen Fragen den richtigen Ansatz verfolgt.
Das Online-Sicherheitsgesetz selbst war umstritten, nicht zuletzt wegen der Ermessensbefugnis, die es dem Kommunikationsminister und dem Beauftragten für elektronische Sicherheit gab.
„Während es einige offensichtliche Elemente gibt, die nicht durchkommen würden … ist es die enorme Macht in den Händen einer Person, die tatsächlich bestimmt, was die Erwartungen der Gemeinschaft sind“, sagte Greg Barns von der ‚Australian Lawyers Alliance‘.
„Die umfassenderen Fragen, was Schaden darstellt, beginnen sich dann zu Fragen der Meinungsfreiheit, aber auch der Transparenz und Rechenschaftspflicht zu verschmelzen.“
Dr. Suzor sagte, dass er im Allgemeinen „völlig an Bord“ sei von der Idee, dass Regierungen mehr Mitspracherecht bei den Standards haben wollen, die für akzeptable Online-Inhalte festgelegt werden.
Aber in der Praxis deutete er an, dass es nicht viel Klarheit darüber gab, wozu die Codes entwickelt wurden.
„Kodizes sind Vereinbarungen, im Wesentlichen das zu tun, was die Industrie bereits tut, zumindest der größte Teil der Industrie“, sagte er.
“Eigentlich weiß ich nicht, was sie erreichen sollen, um ehrlich zu sein.”