Europe
Asia
Oceania
Americas
Africa
Intelligente Systeme wie ChatGPT oder Replika dringen bis in unsere Beziehun
Sprachmodelle wirken objektiv, doch in ihren Antworten stecken zwangsläufig weltanschauliche Prägungen. Das macht sie zu mächtigen Meinungsmachern – und birgt erhebliche gesellschaftliche Risiken.
Freud und Leid: Früher legte man sich bei mentalen Problemen auf die Couch, heutzutage setzt man sich lieber vor den Rechner – denn ChatGPT und Co. kommen bei psychischen Störungen immer öfter zum Einsatz. Aber ist das wirklich die Zukunft?
Künstliche Intelligenz mischt bei vielen Entscheidungen mit
Mentalen Struggle klären wir schnell mit ChatGPT, emotionalen Support finden wir in Foren wie Reddit. Kurz: Wir rufen vorm Bildschirm schreibend immer öfter um Hilfe. Und zwar nicht nur beim Aufbau des Schlafzimmerschranks, sondern auch beim Abbau von psychischen Problemen. Eine super Lösung! Oder?