Neuro-News: Mit künstlicher Intelligenz (KI) generierte, korrekte Tweets sind leichter verständlich als jene, die von Menschen verfasst sind.

Eine neue Studie von Forschenden der Universität Zürich untersuchte die Fähigkeiten von KI-Modellen, insbesondere GPT-3 von OpenAI, im Hinblick auf potenzielle Risiken und Vorteile bei der Erzeugung und Verbreitung von (Des-)Information.
 
Unter der Leitung der Postdoktoranden Giovanni Spitale und Federico Germani, gemeinsam mit Nikola Biller-Andorno, Direktorin des Instituts für Biomedizinische Ethik und Geschichte der Medizin (IBME) der Universität Zürich, wurde in der Studie untersucht, ob Personen zwischen Desinformation und korrekten Informationen in Form von Tweets unterscheiden können.
 
Darüber hinaus wollten die Forschenden herausfinden, ob die 697 Teilnehmenden der Studie erkennen, ob ein Tweet von einem realen Twitter-Nutzer verfasst oder von GPT-3, einem fortschrittlichen KI-Sprachmodell, generiert wurde. Die Themenfelder der Tweets beinhalteten unter anderem den Klimawandel, die Sicherheit von Impfstoffen, die COVID-19-Pandemie, die Theorie, die Erde sei eine Scheibe, und homöopathische Behandlungen für Krebs.

👉 Mehr dazu erfahren

Quelle: Universität Zürich

3 Mythen entlarvt - Wenn die Wissenschaft Wissen schafft! | Dr. Yasemin Yazan

Wenn Wissenschaft Wissen schafft!

Leider gibt es auf dem Markt sehr viel Halbwissen. Sei es, weil z. B. Forschungsergebnisse falsch interpretiert oder falsche Kausalitäten hergestellt werden oder Übertragungen in andere Kontexte stattfinden, die gar nicht Untersuchungsgegenstand waren.

Wir greifen 3 Mythen auf und zeigen, was die Wissenschaft schon längst weiß:

- Warum die Bedürfnispyramide von Maslow keine zuverlässige Grundlage für Motivation ist

- Warum Persönlichkeitstests als Fundament für Personalentscheidungen fragwürdig sind

- Warum es eine Quote als wirksames Mittel gegen Unconscious Bias braucht

Datenschutz

Einverständniserklärung

Herzlichen Glückwunsch - Dein Download erwartet dich in deinem Mail-Postfach!