„Sie dachten, es ginge ihnen gut, aber es machte die Menschen noch schlimmer“: Warum Apps für die psychische Gesundheit auf dem Prüfstand stehen | Psychische Gesundheit

„WWas wäre, wenn ich Ihnen sagen würde, dass eine der stärksten Entscheidungen, die Sie treffen können, die Entscheidung wäre, um Hilfe zu bitten?“ sagt eine junge Frau in den Zwanzigern in einem roten Pullover und empfiehlt den Zuschauern, sich beraten zu lassen. Diese Anzeige, die auf Instagram und anderen Social-Media-Plattformen beworben wird, ist nur eine von vielen Kampagnen des in Kalifornien ansässigen Unternehmens BetterHelp, das anbietet, Benutzer mit Online-Therapeuten zu verbinden.

Der Bedarf an ausgefeilten digitalen Alternativen zur herkömmlichen Präsenztherapie ist in den letzten Jahren deutlich geworden. Wenn wir nach dem gehen neueste Daten Für NHS-Gesprächstherapiedienste wurden im Zeitraum 2022–23 1,76 Millionen Menschen zur Behandlung überwiesen, während 1,22 Millionen tatsächlich begannen, persönlich mit einem Therapeuten zu arbeiten.

Während Unternehmen wie BetterHelp hoffen, einige der Hindernisse zu beseitigen, die Menschen davon abhalten, eine Therapie in Anspruch zu nehmen, etwa der Mangel an ausgebildeten Ärzten in ihrer Gegend oder die Suche nach einem Therapeuten, mit dem sie sich identifizieren können, haben viele dieser Plattformen auch eine besorgniserregende Seite. Was passiert nämlich mit den beträchtlichen Mengen äußerst sensibler Daten, die sie dabei sammeln? In Großbritannien gibt es derzeit Bestrebungen, diese Apps zu regulieren, und das Bewusstsein für mögliche Schäden wächst.

Letztes Jahr hat die US-amerikanische Federal Trade Commission BetterHelp ausgezeichnet eine Geldstrafe von 7,8 Millionen US-Dollar (6,1 Millionen Pfund). nachdem die Agentur festgestellt hatte, dass sie Verbraucher getäuscht und sensible Daten zu Werbezwecken an Dritte weitergegeben hatte, obwohl sie versprochen hatte, diese Informationen geheim zu halten. Vertreter von BetterHelp reagierten nicht auf eine Bitte um Stellungnahme des Beobachter.

Die Zahl der Menschen, die online Hilfe für ihre psychische Gesundheit suchen, ist während der Pandemie rasant gestiegen. Foto: Alberto Case/Getty Images

Forschungsergebnisse deuten darauf hin, dass solche Datenschutzverletzungen keine isolierte Ausnahme darstellen, sondern vielmehr, dass sie in der riesigen Branche der Apps für psychische Gesundheit, zu denen virtuelle Therapiedienste, Stimmungstracker, mentale Fitnesstrainer, digitale Formen der kognitiven Verhaltenstherapie und Chatbots gehören, zu häufig vorkommen.

Unabhängige Aufsichtsbehörden wie die Mozilla Foundation, eine globale gemeinnützige Organisation, die versucht, das Internet auf böswillige Akteure zu überwachen, hat Plattformen identifiziert, die undurchsichtige regulatorische Grauzonen ausnutzen, um vertrauliche persönliche Informationen entweder weiterzugeben oder zu verkaufen. Als die Stiftung 32 führende Apps für psychische Gesundheit befragte ein Bericht vom letzten JahrEs wurde festgestellt, dass 19 von ihnen die Privatsphäre und Sicherheit der Benutzer nicht schützten. „Wir haben festgestellt, dass Ihre persönlichen, privaten psychischen Gesundheitsprobleme zu oft monetarisiert werden“, sagt er Jen Caltriderder Mozillas Arbeit zum Schutz der Privatsphäre von Verbrauchern leitet.

Caltrider weist darauf hin, dass in den USA die Gesetz über die Portabilität und Rechenschaftspflicht von Krankenversicherungen (HIPAA) schützt die Kommunikation zwischen Arzt und Patient. Vielen Nutzern sei jedoch nicht bewusst, dass es Lücken gebe, die digitale Plattformen nutzen könnten, um HIPAA zu umgehen. „Manchmal spricht man nicht mit einem zugelassenen Psychologen, manchmal nur mit einem ausgebildeten Coach, und keines dieser Gespräche ist durch das Gesundheitsschutzgesetz geschützt“, sagt sie. „Aber auch die Metadaten rund um dieses Gespräch – die Tatsache, dass man eine App gegen Zwangsstörungen oder Essstörungen nutzt – können für Werbung und Marketing genutzt und geteilt werden. Das ist etwas, das viele Menschen nicht unbedingt sammeln und nutzen möchten, um Produkte gezielt auf sie auszurichten.“

Wie viele andere, die sich mit dieser schnell wachsenden Branche befasst haben, wurde auch dem Markt für digitale Apps für die psychische Gesundheit ein lohnenswertes Ergebnis vorhergesagt 17,5 Milliarden US-Dollar (13,8 Milliarden Pfund) bis 2030 – Caltrider ist der Ansicht, dass eine strengere Regulierung und Aufsicht dieser vielen Plattformen, die sich an einen besonders gefährdeten Teil der Bevölkerung richten, längst überfällig ist.

„Die Zahl dieser Apps ist während der Pandemie explodiert, und als wir mit der Recherche begannen, war es wirklich traurig, denn es schien, als ob es vielen Unternehmen weniger darum ging, Menschen zu helfen, als vielmehr darum, wie sie aus dem Goldrausch an psychischen Problemen Kapital schlagen können.“ ” Sie sagt. „Wie bei vielen Dingen in der Technologiebranche wuchs sie sehr schnell und der Datenschutz wurde für einige zu einem nachträglichen Gedanken. Wir hatten das Gefühl, dass die Dinge vielleicht nicht so toll werden würden, aber was wir vorfanden, war viel schlimmer, als wir erwartet hatten.“

Der Drang zur Regulierung

Letztes Jahr hat die britische Regulierungsbehörde, die Regulierungsbehörde für Arzneimittel und Gesundheitsprodukte (MHRA) und das National Institute for Health and Care Excellence (Nizza) starteten ein dreijähriges Projekt, das von der Wohltätigkeitsorganisation Wellcome finanziert wurde, um zu untersuchen, wie digitale Tools für die psychische Gesundheit im Vereinigten Königreich am besten reguliert werden können, und um mit internationalen Partnern zusammenzuarbeiten um einen weltweiten Konsens über digitale Vorschriften zur psychischen Gesundheit voranzutreiben.

Holly Coole, Senior Managerin für digitale psychische Gesundheit bei der MHRA, erklärt, dass Datenschutz zwar wichtig sei, das Hauptaugenmerk des Projekts jedoch darauf liege, einen Konsens über die Mindeststandards für die Sicherheit dieser Tools zu erzielen. „Wir konzentrieren uns mehr auf die Wirksamkeit und Sicherheit dieser Produkte, weil das unsere Aufgabe als Regulierungsbehörde ist, sicherzustellen, dass die Patientensicherheit bei jedem Gerät, das als Medizinprodukt eingestuft wird, an erster Stelle steht“, sagt sie.

Gleichzeitig fordern immer mehr Führungskräfte im Bereich der psychischen Gesundheit strenge internationale Richtlinien, um beurteilen zu können, ob ein Instrument tatsächlich einen therapeutischen Nutzen hat oder nicht. „Eigentlich bin ich ziemlich gespannt und hoffnungsvoll in Bezug auf diesen Bereich, aber wir müssen verstehen, wie gut ein digitales Therapeutikum aussieht?“ sagt Dr. Thomas Insel, ein Neurowissenschaftler und ehemaliger Direktor der USA Nationales Institut für psychische Gesundheit.

Psychiatrieexperten sind sich einig, dass es im letzten Jahrzehnt zwar zu einer enormen Verbreitung neuer stimmungsaufhellender Tools, Tracker und Selbsthilfe-Apps gekommen ist, dass es jedoch kaum stichhaltige Beweise dafür gibt, dass sie tatsächlich helfen.

„Ich denke, das größte Risiko besteht darin, dass viele der Apps die Zeit der Menschen verschwenden und zu Verzögerungen bei der effektiven Versorgung führen“, sagt Dr. John Torous, Direktor der Abteilung für digitale Psychiatrie am Beth Israel Deaconess Medical Center der Harvard Medical School.

Er sagt, dass derzeit jedes Unternehmen, das über ausreichende Marketingmittel verfügt, problemlos in den Markt eintreten kann, ohne nachweisen zu müssen, dass seine App die Nutzer fesselt oder überhaupt einen Mehrwert bietet. Torous kritisiert insbesondere die schlechte Qualität vieler vermeintlicher Pilotstudien, die die Messlatte für die Wirksamkeit der App so niedrig anlegten, dass die Ergebnisse nahezu aussagekräftig seien. Er führt das Beispiel von an ein Versuch im Jahr 2022, die eine App, die kognitive Verhaltenstherapie für Menschen mit Schizophrenie und einem akuten psychotischen Ausbruch anbietet, mit einer Stoppuhr (einer „Schein“-App mit einer Digitaluhr) verglich. „Manchmal sieht man sich eine Studie an und sie vergleichen ihre App mit dem Blick auf eine Wand oder eine Warteliste“, sagt er. „Aber normalerweise ist alles besser, als gar nichts zu tun.“

Manipulation gefährdeter Benutzer

Die besorgniserregendste Frage ist jedoch, ob einige Apps tatsächlich den Schaden aufrechterhalten und die Symptome der Patienten, denen sie helfen sollen, verschlimmern könnten.

Vor zwei Jahren haben der US-Gesundheitsriese Kaiser Permanente und HealthPartners beschlossen, es zu untersuchen die Wirksamkeit eines neuen digitalen Tools für die psychische Gesundheit. Basierend auf einem psychologischen Ansatz, der als dialektische Verhaltenstherapie bekannt ist und Praktiken wie Achtsamkeit gegenüber Emotionen und beschleunigtes Atmen umfasst, bestand die Hoffnung, dass er dabei helfen könnte, suizidales Verhalten bei Risikopatienten zu verhindern.

Im Laufe von 12 Monaten wurden 19.000 der Patienten, die häufig über Selbstmordgedanken berichtet hatten, in drei Gruppen randomisiert. Die Kontrollgruppe erhielt die Standardversorgung, die zweite Gruppe erhielt zusätzlich zur üblichen Versorgung regelmäßige Kontaktaufnahmen zur Beurteilung ihres Suizidrisikos, während die dritte Gruppe zusätzlich zur Pflege das digitale Tool erhielt. Doch bei der Auswertung der Ergebnisse stellte sich heraus, dass es der dritten Gruppe tatsächlich schlechter ging. Die Verwendung des Tools schien ihr Risiko, sich selbst zu verletzen, im Vergleich zu einer reinen normalen Pflege deutlich zu erhöhen.

„Sie dachten, sie würden etwas Gutes tun, aber es machte die Menschen noch schlimmer, was sehr besorgniserregend war“, sagt Torous.

Einige der größten Bedenken stehen im Zusammenhang mit KI-Chatbots, von denen viele als sicherer Ort vermarktet werden, an dem Menschen über ihre geistige Gesundheit oder emotionale Probleme sprechen können. Dennoch befürchtet Caltrider, dass diese Algorithmen ohne eine bessere Überwachung der Antworten und Ratschläge dieser Bots gefährdete Personen manipulieren könnten. „Mit diesen Chatbots erschafft man etwas, mit dem einsame Menschen eine Beziehung aufbauen könnten, und dann sind der möglichen Manipulation keine Grenzen gesetzt“, sagt sie. „Der Algorithmus könnte verwendet werden, um diese Person dazu zu bringen, teure Gegenstände zu kaufen, oder sie zu Gewalt zu drängen.“

Diese Befürchtungen sind nicht unbegründet. Auf Reddit teilte ein Benutzer des beliebten Replika-Chatbots Folgendes mit ein Screenshot eines Gesprächs, in dem der Bot offenbar aktiv zu seinem Selbstmordversuch ermutigte.

Therapie per Telefon: Doch wie sicher sind sensible persönliche Daten? Foto: Getty Images

Als Reaktion darauf sagte ein Unternehmenssprecher von Replika Beobachter: „Replika beobachtet kontinuierlich Medien und soziale Medien und verbringt viel Zeit damit, direkt mit Benutzern zu sprechen, um Wege zu finden, Bedenken auszuräumen und Probleme innerhalb unserer Produkte zu beheben.“ Die im bereitgestellten Screenshot gezeigte Benutzeroberfläche ist mindestens acht Monate alt und könnte aus dem Jahr 2021 stammen. Seit 2021 gab es über 100 Updates, allein im letzten Jahr 23.“

Aufgrund dieser Sicherheitsbedenken geht die MHRA davon aus, dass die sogenannte Post-Market-Überwachung bei Apps für die psychische Gesundheit genauso wichtig werden wird wie bei Medikamenten und Impfstoffen. Coole zeigt auf die Meldeseite für gelbe Karten, im Vereinigten Königreich zur Meldung von Nebenwirkungen oder fehlerhaften Medizinprodukten verwendet, was es Nutzern künftig ermöglichen könnte, unerwünschte Erfahrungen mit einer bestimmten App zu melden. „Die Öffentlichkeit und medizinische Fachkräfte können wirklich dabei helfen, der MHRA mithilfe der Yellow Card wichtige Informationen zu unerwünschten Ereignissen zu liefern“, sagt sie.

Gleichzeitig sind Experten jedoch nach wie vor der festen Überzeugung, dass Apps zur psychischen Gesundheit bei angemessener Regulierung eine enorme Rolle dabei spielen können, den Zugang zur Gesundheitsversorgung zu verbessern, nützliche Daten zu sammeln, die bei der Erstellung einer genauen Diagnose helfen können, und Lücken zu schließen, die durch eine überlastete Gesundheitsversorgung entstehen Systeme.

„Was wir heute haben, ist nicht großartig“, sagt Insel. „Die psychiatrische Gesundheitsfürsorge, wie wir sie in den letzten zwei oder drei Jahrzehnten kennen, ist eindeutig ein Bereich, der reif für Veränderungen ist und einer Transformation bedarf. Aber wir sind im ersten Akt eines Fünf-Akt-Stücks. Die Regulierung wird wahrscheinlich im zweiten oder dritten Akt erfolgen, und wir brauchen sie, aber wir brauchen auch viele andere Dinge, von besseren Beweisen bis hin zu Interventionen für Menschen mit schwereren psychischen Erkrankungen.“

Torous ist der Ansicht, dass der erste Schritt darin besteht, dass Apps hinsichtlich der Funktionsweise ihrer Geschäftsmodelle und der zugrunde liegenden Technologie transparenter werden. „Ohne das kann sich ein Unternehmen nur durch Marketingaussagen differenzieren“, sagt er. „Wenn Sie nicht beweisen können, dass Sie besser oder sicherer sind, weil es keine wirkliche Möglichkeit gibt, diese Behauptungen zu überprüfen oder ihnen zu vertrauen, bleibt Ihnen nur die Vermarktung. Was wir sehen, ist, dass riesige Summen für Marketing ausgegeben werden, aber das Vertrauen von Ärzten und Patienten beginnt dadurch zu schwinden. Man kann nur so oft Versprechungen machen, bis die Leute skeptisch werden.“

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir