Zuckerberg dismantles fact-checking on Meta – brands need to decide where they stand choosing between profits and principles.
If Zuckerberg’s announcement feels like a Musk-inspired playbook, it’s because it very well might be.
Meta, the parent company of Facebook and Instagram, has not only just donated $1m (£786,000) to an inauguration fund for President-elect Donald Trump (source). Earlier this week, on January 7th, 2025, Mark Zuckerberg also announced:
‘It’s time to get back to our roots around free expression. We’re replacing fact checkers with Community Notes, simplifying our policies and focusing on reducing mistakes. Looking forward to this next chapter.’.
He also mentioned ‘similar to X’ in his video. This alignment with X’s approach is deeply concerning and raises significant red flags.

Image source: NDTV
Now is the moment for brands to prove their values rather than just talk about them. The step back from X by brands has shown that brands CAN indeed make value based decisions BUT the advertising budgets spent on Meta will be massively different kettle of fish in comparison to X. AND I’ve seen enough corporations that talk the talk, and don’t do the actual walk when it comes to the values they’re trying so hard to portray as being lived at their companies. Anyways, first things first…
WHY ARE THESE DEVELOPMENTS AT META DANGEROUS?
These developments entail several potential risks as they fundamentally alter how content is moderated and evaluated on these platforms. Here are the key concerns:
Abolishing fact-checks in favour of Community Notes: Community Notes, as seen on X, have demonstrated significant limitations in effectively curbing the spread of misinformation. Studies reveal that they are often neither timely nor widely applied. With the community determining which notes are visible, there’s a danger of a “majority bias,” leaving the platform vulnerable to groupthink, political polarisation and manipulation.
Simplifying content guidelines: Reducing guidelines, particularly in sensitive areas like migration and gender identity, could pave the way for hate speech and discrimination. While framed as promoting “freedom of expression,” this move may leave marginalised groups more vulnerable to attacks without sufficient moderation safeguards.
Loosening automated content filters: Shifting content filters to focus solely on illegal violations removes protection from harmful content like doxxing, bullying, or hate speech, putting the onus on users to report such incidents. This reactive approach is ineffective, especially if platforms fail to act swiftly, leaving many users unprotected.
Relocating Trust and Moderation Teams to Texas: Moving from California to Texas may signal political motivations, as Texas, in contrast to California, is less regulated and more conservative. This shift could create the perception that the platform is ideologically aligned rather than neutral and globally inclusive.
SO WHY SHOULD MARKETERS CARE?
Marketers carry a significant responsibility to ensure that their channels and content do not become part of these problematic dynamics. (P.S. they almost certainly already are!).
Changes like the removal of fact-checks in favour of Community Notes have serious consequences.
For context:
1) According to the Center for Countering Digital Hate, posts containing misinformation on X garnered over 2 billion views last year alone. Experts have already linked this deluge of misinformation to influencing election results in key swing states. This seems to be the “successful” model now being replicated.
2) These changes also open the door for bots and click farms to manipulate Community Notes. This could mean that legitimate Community Notes get downvoted and never surface. And that misinformation gains more visibility under the guise of ‘community endorsement,’ bypassing fact-checking altogether.
In light of these developments, marketers must act proactively and take their responsibility seriously:
- Monitor Meta developments and advocate for change.
Monitor on-going developments with Meta, it is important to put pressure on Zuckerberg, boycotts have worked before. - Strengthen internal and external community management.
- Promote Awareness: Where suitable actively educate users about misinformation while fostering a positive and informed community culture.
- External Community Management: Be careful of what type of posts you interact with – ensure they are factually correct and don’t play into more misinformation on the internet.
- React swiftly to crises involving misinformation.
Develop a clear plan for how the brand should react if it becomes associated with misinformation. - Clearly communicate the brand’s position on contentious issues.
Issue clear statements on platform changes or societal issues if they conflict with the brand’s values. Inform the community about how the brand is addressing problematic developments and the steps it is taking.
5. Contribute to community notes!
These changes have the potential to undermine protections against misinformation, hate speech, and harassment. They could make the platforms and the world an even less safe place, particularly for marginalised groups, while eroding trust in moderation mechanisms. Additionally, the tilt towards politically motivated decisions risks compromising the platform’s role as a neutral space for discourse. This is not a time for passivity, it’s a time for action.
GERMAN VERSION
Meta wendet sich von den Fakten ab, wird Ihre Marke Haltung zeigen?
Zuckerberg schließt das Faktencheck-Programm bei Meta ab – Marken müssen sich entscheiden, ob sie Gewinne oder Prinzipien in den Vordergrund stellen.
Wenn Zuckerbergs Ankündigung wie ein Musk-inspiriertes Spielbuch wirkt, dann liegt das vermutlich daran, dass es genau das ist.
Meta, das Mutterunternehmen von Facebook und Instagram, hat kürzlich nicht nur 1 Million US-Dollar (786.000 £) an einen Inaugurationsfonds für den designierten US-Präsidenten Donald Trump gespendet (Quelle). Am Dienstag, den 7. Januar 2025, verkündete Mark Zuckerberg zudem:
„Es ist Zeit, zu unseren Wurzeln der freien Meinungsäußerung zurückzukehren. Wir ersetzen Faktenchecker durch Community Notes, vereinfachen unsere Richtlinien und konzentrieren uns darauf, Fehler zu reduzieren. Ich freue mich auf dieses nächste Kapitel.“
In seinem Video erwähnte er zudem, dass dies „ähnlich wie bei X“ sein wird. Diese Ausrichtung an X ist äußerst besorgniserregend und wirft zahlreiche rote Flaggen auf.
Jetzt ist der Moment gekommen, an dem Marken ihre Werte unter Beweis stellen müssen, anstatt nur darüber zu reden. Der Rückzug von Marken aus X hat gezeigt, dass sie durchaus wertebasierte Entscheidungen treffen können. Doch die Werbebudgets, die bei Meta im Spiel sind, sind eine ganz andere Hausnummer als bei X. Und ich habe genug Unternehmen gesehen, die schöne Worte machen, aber nicht den Taten folgen lassen, wenn es um die Werte geht, die sie angeblich leben. Aber eines nach dem anderen …
WARUM SIND DIESE ENTWICKLUNGEN BEI META GEFÄHRLICH?
Diese Entwicklungen bergen mehrere Risiken, da sie die Art und Weise, wie Inhalte auf diesen Plattformen moderiert und bewertet werden, grundlegend verändern. Hier sind die zentralen Bedenken:
- Abschaffung der Faktenchecks zugunsten von Community Notes:
Community Notes, wie man sie von X kennt, haben deutliche Schwächen gezeigt, wenn es darum geht, die Verbreitung von Fehlinformationen effektiv einzudämmen. Studien zeigen, dass sie oft weder rechtzeitig noch in ausreichendem Maße eingesetzt werden. Wenn die Community entscheidet, welche Notizen sichtbar werden, besteht die Gefahr eines „Mehrheitsirrtums“, was die Plattform anfällig für Gruppendenken, politische Polarisierung und Manipulation macht. - Vereinfachung der Inhaltsrichtlinien:
Die Reduzierung der Richtlinien, insbesondere in sensiblen Bereichen wie Migration und Geschlechtsidentität, könnte Hassrede und Diskriminierung fördern. Während dies als Förderung der „freien Meinungsäußerung“ dargestellt wird, könnten marginalisierte Gruppen stärker Angriffen ausgesetzt sein, ohne ausreichenden Schutz durch Moderation. - Gelockerte automatisierte Contentfilter:
Die Konzentration der Filter auf ausschließlich illegale Verstöße entfernt den Schutz vor problematischen Inhalten wie Doxxing, Mobbing oder Hassrede. Die Verantwortung, solche Inhalte zu melden, wird den Nutzer:innen überlassen. Dieser reaktive Ansatz ist ineffektiv, insbesondere wenn Plattformen nicht schnell reagieren, was viele Nutzer:innen ungeschützt lässt. - Verlagerung der Trust- und Moderationsteams nach Texas:
Der Umzug von Kalifornien nach Texas könnte politische Motive signalisieren, da Texas im Gegensatz zu Kalifornien weniger reguliert und konservativer ist. Dieser Schritt könnte den Eindruck erwecken, dass die Plattform ideologisch ausgerichtet ist, anstatt neutral und global inklusiv zu agieren.
WARUM SOLLTEN MARKETER DARAUF ACHTEN?
Marketer tragen eine erhebliche Verantwortung, sicherzustellen, dass ihre Kanäle und Inhalte nicht Teil dieser problematischen Dynamiken werden (Spoiler: Sie sind es wahrscheinlich bereits!). Änderungen wie die Abschaffung der Faktenchecks zugunsten von Community Notes haben schwerwiegende Konsequenzen.
Zum Kontext:
- Laut dem Center for Countering Digital Hate erzielten Beiträge mit Fehlinformationen auf X im letzten Jahr über 2 Milliarden Aufrufe. Expert:innen haben diese Flut an Fehlinformationen bereits mit der Beeinflussung von Wahlergebnissen in entscheidenden Swing States in Verbindung gebracht. Dieses “erfolgreiche” Modell scheint nun repliziert zu werden.
- Diese Änderungen öffnen auch die Tür für Manipulation durch Bots und Klickfarmen. Das könnte dazu führen, dass legitime Community Notes heruntergewählt und nie angezeigt werden, während Fehlinformationen unter dem Deckmantel der „Community-Bestätigung“ sichtbarer werden und die Faktenprüfung komplett umgehen.
WAS MÜSSEN MARKETER TUN?
Angesichts dieser Entwicklungen müssen Marketer proaktiv handeln und ihre Verantwortung ernst nehmen:
- Entwicklungen bei Meta überwachen und für Veränderungen eintreten: Boykotte haben in der Vergangenheit bereits Wirkung gezeigt.
- Interne und externe Community-Management-Strategien stärken.
- Bewusstsein fördern: Nutzer:innen über Fehlinformationen aufklären und eine positive sowie informierte Community-Kultur fördern.
- Krisenmanagement etablieren: Einen klaren Plan entwickeln, wie die Marke reagieren sollte, falls sie mit Fehlinformationen in Verbindung gebracht wird.
- Klare Markenpositionierung: Stellung zu Plattformänderungen oder gesellschaftlichen Themen beziehen, die im Widerspruch zu den Werten der Marke stehen. Die Community darüber informieren, wie die Marke auf problematische Entwicklungen reagiert und welche Schritte unternommen werden.
- Zu Community Notes beitragen: Sicherstellen, dass diese Verantwortung proaktiv und faktenbasiert wahrgenommen wird.
Diese Änderungen gefährden den Schutz vor Fehlinformationen, Hassrede und Belästigung. Sie könnten Plattformen und die Welt zu einem noch unsichereren Ort machen, insbesondere für marginalisierte Gruppen, und das Vertrauen in Moderationsmechanismen weiter untergraben. Darüber hinaus droht eine politisch motivierte Ausrichtung der Plattform, die ihre Rolle als neutraler Raum für Diskurse kompromittiert. Dies ist keine Zeit für Passivität – es ist Zeit zu handeln.