„Social Media Peer Review“: der Fall Rosmarinöl

Werbung, der mit einer „Studie“ ein seriöser Anstrich verliehen wird, ist eine klassische Marketingstrategie – und funktioniert auf Social Media besonders gut. Doch die Beiträge erreichen dort auch Fachleute, die solche Studien genau unter die Lupe nehmen. Wir haben uns ein aktuelles Beispiel angeschaut – und diskutieren, was so ein „Social Media Peer Review“ leisten kann und was nicht.

Von Aleksandra Vujadinovic

Dass sich falsche Informationen auf Social Media schnell verbreiten können, ist klar. Doch inwieweit können die falschen Informationen dort auch schnell korrigiert werden? „Social Media Peer Review“ heißt hier das (noch wenig etablierte) Schlagwort. Wie dies aussehen kann, zeigt das Beispiel „Rosmarinöl“.

Rosmarinöl kursiert seit etwa Ende 2023 vermehrt als vermeintliche Wunderwaffe gegen Haarausfall auf verschiedenen Kanälen. Produkte von Marken wie Mielle Organics werden von Beauty-Influencern mit Vorher-Nachher-Bildern intensiv vermarktet. Zu diesem Hype tragen auch „Board Certified Dermatologists“ bei. Diese müssen ein weiterführendes  Studium absolviert haben, sich dem lebenslangen Lernen und der Einhaltung medizinischer sowie wissenschaftlicher Standards verpflichten und mehrere Jahre Assistenzzeit vorweisen, um nach einem Test am Computer als „board certified“ zu gelten. Das schützt aber offenbar nicht davor, dass auch diese gelegentlich wissenschaftlichen Unsinn verbreiten. Ein diskussionswürdiges Beispiel ist hier @DoctorYoun, der sich in seinen Videos mit der eben genannten Qualifikation als vertrauenwürdig inszeniert. Gleichzeitig argumentiert er aber anhand einer einzigen Studie aus dem Jahr 2015, dass Rosmarinöl genauso effektiv sei wie der Wirkstoff Minoxidil, der in gängigen Haarwachstums-Produkten enthalten ist.

Doch es gibt auch Fachleute, die solche Behauptungen und die damit verbundenen Studien auf eigene Faust einem kritischen „Review“ unterziehen. Einer davon ist in diesem Falle @jc.dombrowski. Er stellt sich als „Ivy League Biologist“ vor – wobei man aber transparent machen muss, dass er seinerseits für Hersteller von Pflegeprodukten arbeitet. An seiner Kritik kommt man allerdings nicht vorbei – wenn er etwa darauf besteht, dass man mehr als nur das Abstract einer Fachpublikation lesen müsse, bevor man diese als Beleg verwendet. In einem Instagram-Reel erklärt er, warum die Empfehlungen der Dermatolog:innen offensichtlich auf einer fehlerbehafteten Studie basieren (Link).

Sein zentraler Kritikpunkt in dem kurzen Reel: Testzeitraum der Studie sowie die verwendeten Dosierungen sind nicht ausreichend, um den Effekt des Öls im Vergleich zu Minoxidil bewerten zu können. Noch dazu hätte es eigentlich jedem der eigentlichen Reviewer des Fachartikels auffallen können, dass in der Studie gezeigte Graphen identische Balken für Monat 3 und Monat 6 der Testphase enthalten. Das würde bedeuten, dass sich unter den 100 Testpersonen in drei Monaten rein gar nichts verändert hätte – was schlichtweg unmöglich sei.

Zu ähnlichen Ergebnissen kommt eine weitere „Social Media Reviewerin“ in ihrer fast 28-minütige Diskussion dieser Studie auf Youtube (Link). Auf @LabMuffinBeautyScience erklärt „science educator and cosmetic chemist“ Michelle Wong nicht nur, warum die vielfach zitierte Studie die Wirkung des Öls nicht beweisen kann. Die Chemikerin, die ihrerseits für verschiedene Firmen arbeitet, beschreibt auch, wie Wissenschaft bzw. Peer Review funktioniert und wie wissenschaftliche Veröffentlichungen aufgebaut sind. Sie betont ebenfalls, dass man Studien-Abstracts – wie im Falle des Rosmarin-Öls – allein nicht trauen sollte.

Beide betreiben eine Art von Wissenschaftskommunikation, die in die Phase des Post-Publication-Reviews gehört. Und in beiden Fällen kann man mögliche Interessenkonflikte nicht ausschließen. Mit ihren Diskussionen und Hinweisen tragen die „Social Media Peer Reviewer“ aber dennoch dazu bei, dass falsche Informationen im Internet zumindest nicht unkommentiert kursieren – und Studien im besten Falle auch in der Fachcommunity nochmals geprüft und womöglich sogar zurückgezogen werden.

In Deutschland kennen wir ähnliche (allerdings professionell journalistische) Beispiele aus dem mailab oder von den Quarks Science Cops des WDR, mit denen das RRC kooperiert (zuletzt z.B. hier). All diese öffentlichen Reviewer sind somit Teil eines erweiterten wissenschaftlichen Peer Review Prozesses. Was sie allerdings nicht leisten können: Die ursprünglichen Falschinformationen kursieren natürlich weiterhin – und auf Grund der Auswahl-Algorithmen der Social Media-Plattformen sowie der generellen Probleme eines Debunking meist mit höherer Reichweite als die engagierten Korrekturen.