Unsere größte Depotposition Meta hat noch reichlich Kurspotenzial!

1 min lesen

Liebe Anleger,

Meta hat gestern Quartalszahlen vorgelegt und alle Erwartungen gesprengt. Der Social-Media-Gigant wächst mit +25 % beim Umsatz fast so leichtfüßig wie ein kleines Start-up. Meta ist die größte Position im Realgeld-Depot vom aktien Magazin. Zudem bin ich auch privat sechsststellig in Meta investiert. Ich halte die Aktie in den kommenden drei Jahren für einen klaren Outperformer.

Mark Zuckerberg hat zwei wichtige Dinge erreicht:

Erstens hat er es geschafft, das Nutzerengagement auf Instagram und Co. wieder zu erhöhen. Ende 2022 sorgten wir Aktionäre uns, dass Facebook und Instagram außer Mode gekommen sind. Nutzer wendeten sich ab. Die Reels (Kurzvideos) haben die Wende herbeigeführt.

Zweitens gelingt es Meta so gut wie keiner anderen Plattform, Werbeanzeigen der richtigen Zielgruppe zu präsentieren. Meta hat gigantische Investitionen in KI-Cluster getätigt, um für jeden Nutzer Profil anzufertigen. Das funktioniert fantastisch. Auch wir bei TraderFox erhöhen unsere Werbebudgets bei Meta. Für eine Kampagne zu unserem Gratis-Magazin www.traderwp.com bezahlen wir derzeit günstig Leadpreise von nur 5 Euro je Leser. Das sind weit bessere Werte als über Google.

Es gab im gestrigen Earnings-Call drei wichtige Aussagen von Mark Zuckerberg zu den Wachstumsperspektiven mit Künstlicher Intelligenz:

SIMON BETSCHINGER (Diplom Volkswirt, CEO TraderFox)

Mark Zuckerberg: „Ein Hauptziel für die Zukunft wird nun die Entwicklung der beliebtesten und fortschrittlichsten KI-Produkte und -Dienste sein. Wenn wir Erfolg haben, wird jeder, der unsere Dienste nutzt, über einen erstklassigen KI-Assistenten verfügen, der ihn bei der Erledigung seiner Aufgaben unterstützt, jeder YouTuber wird über eine KI verfügen, mit der seine Community interagieren kann, und jedes Unternehmen wird über eine KI verfügen, mit der seine Kunden interagieren können, um etwas zu kaufen, Produkte und Support erhalten und jeder Entwickler verfügt über ein hochmodernes Open-Sourc

Dieser Artikel ist erschienen in...