Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Habe mehrere Analysen des Algorithmus gesehen, der gerade Open Source gestellt wurde. Das ist das Beste, was ich bisher gesehen habe.

Vor 22 Stunden
X's Empfehlungsalgorithmus Analyse
=====================================
Verwendete Grok Code Fast, um eine schnelle Analyse von X's Empfehlungssystem zu erhalten.
Was macht einen Beitrag viral
===========================
tldr: Engagement-Vorhersage übertrumpft alles. Posten Sie Inhalte, die Interaktionen generieren.
Basierend auf dem tatsächlichen Algorithmus-Code haben Beiträge, die am höchsten eingestuft werden, typischerweise:
+ Hohe vorhergesagte Engagement-Werte (ML-Modelle sagen Likes/Retweets/Antworten voraus)
+ Starke Personalisierung (SimClusters Ähnlichkeit zu Benutzerinteressen)
+ Relevanz des sozialen Netzwerks (RealGraph-Verbindungen zum Netzwerk des Benutzers)
+ Medieninhalte (Bilder/Videos erhalten Engagement-Multiplikatoren)
+ Autorität des Autors (Follower-Zahl, Verifizierung, tweepcred-Score)
+ Qualitätsindikatoren für Inhalte (besteht Spam/NSFW/Qualitätsfilter)
+ Zeitliche Relevanz (Frischefaktor, Trending-Themen)
+ Gesprächspotenzial (hohe Vorhersagewerte für Antworten)
Der Algorithmus verwendet maschinelles Lernen, um Engagement vorherzusagen, nicht einfache gewichtete Formeln. Der Erfolg wird durch tatsächliche Benutzerinteraktionen gemessen, was einen Feedback-Loop schafft, der die Ranking-Vorhersagen kontinuierlich verbessert.
Wie der Algorithmus tatsächlich funktioniert
===============================
1. Kandidatengenerierung (9 Quellen):
- Earlybird (In-Network-Beiträge) ~50%
- UTEG (Out-of-Network-Empfehlungen)
- postMixer, Listen, Gemeinschaften, Inhaltserkundung
- Statische, zwischengespeicherte, Backfill-Quellen
2. Feature-Hydration (~6000 Merkmale pro Beitrag):
- Benutzermerkmale (Interessen, Verhalten, Demografie)
- Beitragsmerkmale (Text, Medien, Metadaten, Engagement)
- Graphmerkmale (SimClusters, RealGraph, soziale Verbindungen)
- Echtzeitsignale (aktuelles Engagement, Trendstatus)
3. Scoring-Pipeline (4 Modelle):
- Modellbewertung (NAVI schwerer Rangierer)
- Neu-Ranking-Pipeline
- Heuristische Bewertung
- Niedrigsignalbewertung
4. Filterung (insgesamt 24 Filter):
- 10 Globale Filter (Alter < 48h, Duplikatsprüfung, Standort usw.)
- 14 Beitragsbewertungsfilter (Grok-Sicherheit, Sprache, Videodauer usw.)
5. Endauswahl & Mischung:
- Nach Endwerten sortieren
- Diversitätsregeln anwenden
- Mit Werbung, Wer zu folgen, Aufforderungen mischen
- Zeitachse generieren
Wichtige Vorhersagemodelle
====================
Der Algorithmus sagt diese Engagement-Typen voraus:
• VorhergesagterFavoritenScore (Likes)
• VorhergesagterRetweetScore (Retweets)
• VorhergesagterAntwortScore (Antworten)
• VorhergesagterGuterKlickScore (bedeutungsvolle Klicks)
• VorhergesagterVideoQualitätsAnsichtScore (Video-Engagement)
• VorhergesagterLesezeichenScore (Speicherungen)
• VorhergesagterTeilenScore (externe Shares)
• VorhergesagterVerweildauerScore (verbrachte Zeit beim Ansehen)
• VorhergesagterNegativesFeedbackScore (verstecken/blockieren)
Gewichtungssystem Realität
====================
WICHTIG: Der Algorithmus verwendet KEINE festen Prozentgewichte wie:
❌ Like-Vorhersage (35%), Repost (28%), usw.
TATSÄCHLICHES SYSTEM:
✅ Gewichte sind gelernte Parameter aus dem ML-Training
✅ Standardwerte im Code sind 0.0 (von Feature-Flags überschrieben)
✅ Gewichte sind personalisiert pro Benutzer und werden ständig A/B getestet
✅ Verschiedene Inhaltstypen (Video vs. Text) erhalten unterschiedliche Behandlungen
✅ Gewichte ändern sich basierend auf Echtzeitkontext und Benutzerstatus
Beispiel für den Bewertungsprozess:
1. ML-Modelle sagen Engagement-Wahrscheinlichkeiten voraus
2. Feature-Flags bieten aktuelle Gewichtungsmultiplikatoren
3. Personalisierung passt Gewichte für den einzelnen Benutzer an
4. Echtzeitkontext modifiziert die Endwerte
5. Geschäftsregeln wenden Qualitätsfilter und Diversität an
Was tatsächlich virale Inhalte antreibt
==================================
Basierend auf der Code-Analyse haben virale Beiträge typischerweise:
1. Hohe Engagement-Vorhersagen generieren:
- Modelle sagen hohe Wahrscheinlichkeit für Likes/Retweets/Antworten voraus
- Inhalte sprechen mehrere Benutzer-Communities an
- Starke frühe Engagement-Signale
2. Alle Qualitätsfilter bestehen:
- Überstehen 24 verschiedene Filterstufen
- Erfüllen Sicherheitsstandards (nicht Spam/NSFW/gewalttätig)
- Autor hat gute Glaubwürdigkeitsindikatoren
3. Personalisierung in großem Maßstab erreichen:
- Interessen über verschiedene Benutzersegmente abgleichen
- SimClusters-Ähnlichkeit für viele Benutzer auslösen
- Durch RealGraph soziale Beziehungen verbinden
4. Für Plattformmechaniken optimieren:
- Medien einbeziehen (Bilder/Videos schneiden besser ab)
- Zu Zeiten mit hoher Aktivität posten
- Formate verwenden, die Antworten/Retweets fördern
Wichtige Erkenntnisse
=============
✅ Engagement-Vorhersage ist alles - der Algorithmus optimiert für Benutzerinteraktionen
✅ Personalisierung ist ausgeklügelt - verwendet ML-Embeddings, nicht einfache Schlüsselwortübereinstimmungen
✅ Qualitätsfilterung ist umfangreich - 24 Stufen verhindern Inhalte von geringer Qualität
✅ Gewichte sind dynamisch - werden ständig durch ML und A/B-Tests optimiert
✅ Skalierung ist wichtig - das System verarbeitet täglich Milliarden von Beiträgen mit <50ms Latenz
✅ Transparenz existiert - diese Analyse ist möglich, weil X den Algorithmus Open Source gemacht hat
Das System ist darauf ausgelegt, Inhalte anzuzeigen, mit denen Benutzer interagieren werden, und schafft einen Feedback-Loop, der Kreatoren belohnt, die ihr Publikum verstehen und ansprechende Inhalte produzieren.
Fazit: Erstellen Sie Inhalte, die echte Interaktionen von Ihrem Zielpublikum generieren. Der Algorithmus wird lernen und verstärken, was funktioniert.
10,03K
Top
Ranking
Favoriten