Beim Safer Internet Day 2026 diskutierten Experten aus Politik, Wissenschaft und Digitalwirtschaft zu Themen wie Altersverifikation, Dark Patterns und In-Game-Käufe. Im Fokus: der geplante Digital Fairness Act (DFA) der EU.

Zu der Konferenz luden das Bundesministerium der Justiz und für Verbraucherschutz sowie der Digitalverband Bitkom ein.

Für den Deutschen Familienverband (DFV) stand im Zentrum: Schafft Regulierung echten Schutz für Familien – und ist sie zugleich praktikabel umsetzbar?

Politische Perspektive: Schutz vor manipulativen Designs

Bundesjustizministerin Stefanie Hubig betonte die Verantwortung des Staates, Kinder und Jugendliche auch im digitalen Raum wirksam zu schützen. Hubig nannte das australische Vorbild für Altersgrenzen bei sozialen Medien: Ein Verbot in Deutschland ist vorstellbar.

Zudem verwies die Ministerin auf die eingesetzte Expertenkommission zur Weiterentwicklung des Kinder- und Jugendmedienschutzes, die Vorschläge für einen zeitgemäßen gesetzlichen Rahmen erarbeiten soll. „Verbraucherschutz ist keine Bürokratie, sondern Weiterentwicklung der Gesetze”, betonte sie.

Für den DFV ist dabei zentral: Der Schutz von Minderjährigen darf nicht allein bei den Eltern liegen. Wenn Plattformen gezielt Mechanismen einsetzen, die Aufmerksamkeit binden oder Kaufimpulse auslösen, braucht es klare gesetzliche Leitplanken und wirksame Altersverifikation.

Zukunftsfähige Regulierung für KI-Zeiten

Prof. Dr. Christoph Busch, Vorsitzender des Sachverständigenrats für Verbraucherfragen, warnte davor, Regulierung ausschließlich an heutigen Problemen auszurichten. Digitale Technologien entwickelten sich so schnell, dass Gesetze ohne vorausschauende Perspektive bereits bei ihrem Inkrafttreten überholt sein könnten.

Als Beispiel nannte er KI-basierte Assistenzsysteme, die künftig eigenständig Kaufentscheidungen vorbereiten oder auslösen könnten. In der aktuellen Diskussion über den DFA gebe es hier noch einen „blinden Fleck“.

Für den DFV ist entscheidend: Familien brauchen verlässliche, langlebige Regeln – keine Symbolpolitik.

Digital Fairness Act (DFA): Kurz erklärt

Der DFA ist ein von der EU-Kommission vorbereitetes Gesetzesvorhaben, das Verbraucher im digitalen Raum besser schützen und digitale Angebote fairer und transparenter machen soll.

Im Fokus:

  • Dark Patterns: Tricks auf Benutzeroberflächen von Websites und Apps, die Nutzer gezielt zu Entscheidungen drängen
  • Irreführendes Influencer‑Marketing: nicht gekennzeichnete Werbung durch Influencer
  • Suchterzeugende Designs: z. B. endloses Scrollen
  • Unfaire personalisierte Preise: nutzen Schwächen von Nutzern gezielt aus

Wirtschaft: Regulierung praktikabel machen

Wirtschaftsvertreter verwiesen auf die praktische Umsetzbarkeit neuer Regelungen. Bitkom-Präsident Ralf Wintergerst betonte: Digitale Technologien sind Alltag, ein Verzicht unrealistisch. Doch technische Lösungen für Altersverifikation gibt es bereits und können ausgebaut werden.

Gleichzeitig sah er hohen Umsetzungsaufwand: Neue Regeln erfordern Produkt- und Prozessänderungen – besonders, wenn EU-Gesetze uneinheitlich sind. Ena Salihović (Zalando) warnte vor Wettbewerbsnachteilen. Europäische Anbieter konkurrieren mit globalen Plattformen, die sich seltener an EU-Regeln halten.

Ramona Pop von der Verbraucherzentrale Bundesverband ergänzte, dass es statt branchenspezifischer Regeln vertikale Gesetzgebung braucht – einheitliches Verbot manipulativer Praktiken in allen digitalen Angeboten.

DFV-Perspektive: Familien brauchen Verbraucherschutz für Vertrauen in digitale Märkte, ohne verantwortungsvolle Anbieter strukturell zu benachteiligen.

Kinder- und Jugendschutz: Wissenschaft warnt

Prof. Dr. Ralph Hertwig vom Max-Planck-Institut für Bildungsforschung stellte die wissenschaftliche Perspektive vor. Er verwies auf ein aktuelles Diskussionspapier der Leopoldina, das Zusammenhänge zwischen Nutzung Sozialer Medien und psychischen Belastungen bei Kindern zeigt – etwa Depressionen, Angst oder Schlafstörungen.

Ein eindeutiger Kausalzusammenhang ist noch nicht bewiesen, doch die Forschung spricht für präventiven Schutz. Hertwig betonte aber auch die positiven Effekte: Soziale Medien ermöglichen u.a. Selbstausdruck, Unterstützung und politische Beteiligung.

Alarmierend die Nutzungszahlen sozialer Medien: 15% der 8- bis 9-Jährigen, 36% der 10- bis 11-Jährigen und 90% ab 12 nutzen Plattformen. Rund 4,7% (300.000 Kinder) zeigen suchtähnliches Verhalten.

Martin Drechsler von der Freiwilligen Selbstkontrolle der Medienwirtschaft (FSM) ergänzte praktische Ansätze. Finfluencer mit riskanter Finanzwerbung seien besonders problematisch. Die FSM setzt auf regulierte Selbstkontrolle, Anbieter verpflichten sich freiwillig zu Standards.

Der DFV sieht Handlungsbedarf: Medienkompetenz in Familien und Schulen hilft, ersetzt aber nicht klare Altersgrenzen und technische Filter auf Plattform- und Netzebene.

Medienkompetenz, Technik und faire Teilhabe

Zusammenfassend zeigten die Experten: Regulierung allein reicht nicht, um Kinder und Jugendliche im digitalen Raum zu schützen. DSiN e.V., die Initiative für digitale Bildung, betonte digitale Souveränität für mündige Nutzer – nicht nur für Server und Rechenzentren. Wer auf Dark Patterns hereinfällt, ist häufig auch anfälliger für Desinformation und Betrug: „Ältere Menschen sind Hauptzielgruppe für Betrüger“.

„Digitale Bildung ist gleich wichtig wie Regulierung“ als kontinuierliche Kompetenzförderung. Ergänzend stellte eine Vertreterin von Microsoft technische Schutzfunktionen vor. Diese Lösungen sind wertvoll, bleiben jedoch auf einzelne Plattformen beschränkt und ersetzen keine umfassenden gesetzlichen Schutzmechanismen.

Aus Sicht des DFV zeigt sich daraus: Medienkompetenz, technische Lösungen und gesetzliche Regulierung müssen Hand in Hand gehen, um Kinder, Jugendliche und Erwachsene wirksam zu schützen. Gleichzeitig verdeutlichte die Diskussion, dass digitale Fairness alle Generationen betrifft.

Der DFV setzt sich deshalb für ein Recht auf analoges Leben ein: Herkömmliche Zugangsmöglichkeiten bei Banken, Bahn, Behörden, Handel und Einrichtungen des täglichen Bedarfs müssen erhalten bleiben. Niemand darf vom gesellschaftlichen Leben ausgeschlossen werden, weil digitale Technik nicht genutzt werden kann oder will.

Fazit

Die Konferenz machte deutlich: Digitale Fairness ist eine zentrale gesellschaftliche Aufgabe, die alle Generationen betrifft. Gesetzliche Regulierung, technische Schutzmechanismen und Medienkompetenz müssen zusammenwirken, um Dark Patterns, Altersrisiken und suchtähnliches Verhalten wirksam zu begrenzen.

Für den Deutschen Familienverband bleibt entscheidend, dass diese Maßnahmen praktikabel, wirksam und generationenübergreifend gestaltet werden. Neben dem Schutz von Kindern und Jugendlichen muss die Teilhabe aller Bürgerinnen und Bürger gesichert sein – ob digital affin oder nicht.

Der Verband setzt sich daher für klare Altersgrenzen für Soziale Medien, verbindliche technische Schutzsysteme, Förderung von Medienkompetenz und ein Recht auf analoges Leben ein. Nur so kann digitale Modernisierung fair, sicher und sozial inklusiv umgesetzt werden.

Dem DFV auf Facebook folgen

Kostenfrei im DFV-Newsletter anmelden

Informationen zur Familienpolitik, Finanzen, Gesundheit, Bildung und alles rund um Familie

Liste(n) auswählen:
Dieses Feld wird benötigt.