Select Page

Neuro-News: Mit künstlicher Intelligenz (KI) generierte, korrekte Tweets sind leichter verständlich als jene, die von Menschen verfasst sind.

Eine neue Studie von Forschenden der Universität Zürich untersuchte die Fähigkeiten von KI-Modellen, insbesondere GPT-3 von OpenAI, im Hinblick auf potenzielle Risiken und Vorteile bei der Erzeugung und Verbreitung von (Des-)Information.
 
Unter der Leitung der Postdoktoranden Giovanni Spitale und Federico Germani, gemeinsam mit Nikola Biller-Andorno, Direktorin des Instituts für Biomedizinische Ethik und Geschichte der Medizin (IBME) der Universität Zürich, wurde in der Studie untersucht, ob Personen zwischen Desinformation und korrekten Informationen in Form von Tweets unterscheiden können.
 
Darüber hinaus wollten die Forschenden herausfinden, ob die 697 Teilnehmenden der Studie erkennen, ob ein Tweet von einem realen Twitter-Nutzer verfasst oder von GPT-3, einem fortschrittlichen KI-Sprachmodell, generiert wurde. Die Themenfelder der Tweets beinhalteten unter anderem den Klimawandel, die Sicherheit von Impfstoffen, die COVID-19-Pandemie, die Theorie, die Erde sei eine Scheibe, und homöopathische Behandlungen für Krebs.

👉 Mehr dazu erfahren

Quelle: Universität Zürich

3 Myths Debunked – When Science Creates Knowledge! | Dr Yasemin Yazan

When Science Creates Knowledge!

Unfortunately, there is a lot of false knowledge on the market. Be it because, for example, research results are misinterpreted or false causalities are made, or because they are transferred to other contexts that were not even the subject of the study.

We pick 3 myths and show what science already knows:

- Why Maslow's hierarchy of needs is not a reliable basis for motivation

- Why personality tests are questionable as a basis for personnel decisions

- Why a quota is needed as an effective measure against Unconscious Bias

Data Protection Declaration

Declaration Of Consent

Congratulations - your download is waiting for you in your mailbox!