So wie die Straßenverkehrsordnung Regeln für einen sicheren Verkehr aufstellt, sorgt das Jugendschutzgesetz dafür, dass Kinder und Jugendliche in der Medienwelt geschützt werden. Gerade in einer digitalisierten Gesellschaft ist es wichtiger denn je, jungen Menschen Orientierung und Schutz zu bieten.
Das Jugendschutzgesetz, kurz JuSchG, regelt unter anderem, wie Medien heute gestaltet sein müssen, damit Kinder und Jugendliche bei ihrer Nutzung keinen Gefahren ausgesetzt werden. Die umfassend modernisierte Fassung, die seit Mai 2021 gilt, nimmt digitale Dienste stärker in den Fokus. Während in früheren Versionen vor allem sogenannte Trägermedien wie Videokassetten und DVDs, CR-ROMs oder Tonträger im Vordergrund standen, berücksichtigt das aktualisierte Gesetz auch die Herausforderungen des Internets. Medienanbieter müssen sich daran halten, sonst drohen ihnen Strafen. Das ist aber gar nicht so einfach, weil es ein deutsches Gesetz ist und das Internet keine Ländergrenzen kennt. Wenn die Anbieter bestimmter Angebote ihren Sitz in Deutschland haben, müssen sie diesen Regeln aber folgen. Zusätzlichen Druck bringt der Digital Services Act (DSA) der EU mit sich, der seit Anfang 2024 europaweit einheitliche Regeln für Anbieter digitaler Dienste vorsieht.
Das Jugendschutzgesetz legt fest, in welchem Alter Jugendliche Zugang zu bestimmten Medien haben dürfen – bei Filmen, Sendungen und auch bei Online-Angeboten. Dabei greift es auf die Altersfreigaben der Selbstkontrollinstanzen zurück. Anbieter werden zu Voreinstellungen verpflichtet, die Kinder und Jugendliche insbesondere vor Interaktionsrisiken wie Mobbing, sexualisierter Ansprache (Cybergrooming), Hassrede, Tracking und Kostenfallen schützen.
Viele Online-Angebote und Apps haben deshalb integrierte Jugendschutzeinstellungen, zum Beispiel TikTok und Instagram. Sie führen genaue Kontrollen durch, wie alt Nutzer*innen sind, oder lassen sich sogar über Videoverfahren die Identität beweisen. Trotzdem ist es schwierig, diese Regel umzusetzen: Bei einer einfachen Abfrage des Alters lässt sich kaum sicher herausfinden, ob die Antwort wirklich stimmt.
Das Gesetz sieht auch verlässliche einheitliche Alterskennzeichen für Spiele und Filme vor, die online genutzt werden. Außerdem wird die Einordnung nicht mehr nur an den Inhalten festgemacht, sondern auch bezogen auf mögliche Interaktionsrisiken wie Cybergrooming und Kostenfallen.
Zuvor galten die bekannten Alterskennzeichnungen der USK und FSK nur für Spiele und Filme, die auf sogenannten Trägermedien (wie CD-ROMs oder Videokassetten) erhältlich waren. Online-Anbieter mussten keine Altersangaben machen.
Kinder und Jugendliche sollen sich einfach Hilfe suchen und beschweren können, wenn sie sich während der Mediennutzung bedroht oder bedrängt fühlen.
Die neue Bundeszentrale für Kinder- und Jugendmedienschutz soll dafür sorgen, dass diese Regelungen auch wirklich durchgesetzt werden. Einrichtungen wie die Freiwillige Selbstkontrolle Multimedia-Diensteanbieter e.V. haben Online-Beschwerdestellen, an die sich junge Mediennutzende und auch Erwachsene wenden können, um illegale oder jugendgefährdene Inhalte zu melden.
Seit 2024 gibt es außerdem europaweit neue Regelungen für Angebote, die sich besonders an Kinder und Jugendliche richten:
Plattformen müssen ihre AGB (Geschäfts- und Nutzungsbedingungen) so erklären, dass auch junge Nutzer*innen sie gut verstehen können.
Die langen, schwer zu lesenden Texte, die bei einer Anmeldung häufig achtlos weggeklickt werden, müssen also ersetzt werden durch neue, verständliche Texte. So sollen Kinder und Jugendliche wirklich verstehen können, auf was sie sich mit einer Anmeldung einlassen.
Privatsphäre, Sicherheit und Schutz von Minderjährigen soll verbessert werden: Anbieter von Apps oder Programmen sollen Maßnahmen ergreifen, um ihre Nutzer*innen möglichst gut vor Gefahren wie Betrug, Mobbing oder Hate Speech zu schützen.
Leider sind die genauen Maßnahmen bisher nicht festgelegt, und es gibt wenig vorbildhafte Lösungen. Die Europäische Kommission kann aber Leitlinien herausgeben, um die Anbieter bei der Umsetzung der Vorsorgemaßnahmen zu unterstützen.
Auf Plattformen wie Tiktok oder Instagram legen junge Nutzer*innen Profile an, in denen auch private Informationen stehen. Nach aktuellen Regelungen darf Kindern und Jugendlichen aber keine personalisierte Werbung mehr auf Basis dieser Informationen angezeigt werden.
Auch dafür müssen die Plattformbetreiber gewissenhaft das Alter der Nutzer*innen erfragen – denn Kinder und Jugendliche können noch weniger gut durchschauen, dass personalisierte Werbung ihnen gezielt eingespielt wird, deshalb benötigen sie hier noch stärkeren Schutz als Erwachsene.
Die immer wieder vorgenommenen Überarbeitungen des Jugendschutzgesetzes sind wichtig, um gesetzliche Regelungen an die Medienrealität von Kindern und Jugendlichen anzupassen. Das Gesetz kann für Sie als Eltern eine wichtige Orientierung sein und bietet in einem gewissen Rahmen Schutz. Zumindest, wenn die Anbieter den dort festgelegten Pflichten nachkommen. Leider kann nicht sichergestellt werden, dass das immer der Fall ist. Außerdem passt ein Rahmen nicht individuell zu jedem Kind. Deshalb sollten Sie Ihr Kind vor allem in den jüngeren Jahren sehr eng bei seiner Mediennutzung begleiten. Je älter es wird, desto mehr Freiraum braucht Ihr Kind. Bleiben Sie immer im Gespräch über seinen Medienumgang. Nur so können Sie helfen, wenn es trotz Schutzmaßnahmen unangenehme Erfahrungen im Netz macht oder etwas nicht versteht.