Algorithms and Society

Die Digitalisierung der Gesellschaft bringt einen Strukturwandel der Öffentlichkeit und des Privaten hervor, in dem Algorithmen eine entscheidende Rolle spielen – und das ist ganz wörtlich zu nehmen. Wir alle agieren in und mit soziotechnischen Systemen wie sozialen Medien, Suchmaschinen, Kauf-, Bewerbungs-, Informationsplattformen u.v.m. In diesen Systemen entscheiden maßgeblich Algorithmen welche Inhalte, Gruppen, Personen oder Institutionen wir präsentiert bekommen, uns vorgeschlagen werden und wie diese priorisiert werden. Algorithmen nutzen dabei oft das Nutzungsverhalten selbst als Ausgangsbasis und schaffen so eine komplexe rekursive Interaktion zwischen der Wirkweise des Algorithmus und menschlichem Verhalten und Erleben. Auf diese Weise entfalten künstliche Intelligenz, Algorithmen und automatisierte Prozesse Dynamiken, die für die Benutzenden nicht erkennbar sind und doch soziale Strukturen schaffen, die unser individuelles Leben und die Gesellschaft als Ganzes substanziell beeinflussen. Ob die Folgen dieses Einflusses wünschenswert sind oder nicht, kann nur diskutiert und bewertet werden, wenn wir wissen, wie genau digitale Technologien, das Web und die darin verwendeten Algorithmen gesellschaftliche Strukturen formen.

GESIS erforscht deshalb die Mechanismen soziotechnischer Systeme, um den sozialen Wandel, den sie bewirken, verstehen zu können und die Basis für informierte und „gute“ Entscheidungen zu verbessern. Wir tun dies durch die Erhebung digitaler Verhaltensdaten entlang gesellschaftlicher Fragestellungen, die Durchführung von Online-Experimenten zur Analyse von Verhaltensmustern und ihrer Beeinflussbarkeit in digitalen Umgebungen sowie die Entwicklung analytischer Tools. Eines der drängendsten gesellschaftlichen Probleme ist Ungleichheit. Algorithmen können bestehende soziale Ungleichheit verstärken oder selbst Verzerrungen und Diskriminierung verursachen. Wir erforschen, wie solche Verzerrungen (z.B. gender bias) konkret zustande kommen und wie andererseits Algorithmen und KI genutzt werden könnten, um struktureller Ungleichheit und Ungerechtigkeit oder Fehlinformation entgegenzuwirken.

  • Zens, Maria, Katrin Weller, and Claudia Wagner, ed. 2023. Expert Insights into Studying Vulnerable Communities Online. An Interview with Kyriaki Kalimeri and Yelena Mejova. GESIS Guides to Digital Behavioral Data 4. Köln: GESIS. https://www.gesis.org/fileadmin/admin/Dateikatalog/pdf/dbd-guides/dbd_guide_04_studying_vulnerable_communities_online_kalimeri_mejova.pdf.
  • Ulloa, Roberto, Mykola Makhortykh, Aleksandra Urman, and Juhi Kulshrestha. 2023. "Novelty in News Search: A Longitudinal Study of the 2020 US Elections." Social Science Computer Review 42 (3). doi: https://doi.org/10.1177/08944393231195471.
  • Ulloa, Roberto, and Celina Kacperski. 2023. "Search engine effects on news consumption: Ranking and representativeness outweigh familiarity in news selection." New Media & Society online first. doi: https://doi.org/10.1177/14614448231154926.
  • Ferrara, Antonio, Lisette Espín Noboa, Fariba Karimi, and Claudia Wagner. 2022. "Link recommendations: Their impact on network structure and minorities." In WebSci '22: 14th ACM Web Science Conference 2022, 228-238. New York: Association for Computing Machinery. doi: https://doi.org/10.1145/3501247.3531583.
  • Sen, Indira, Mattia Samory, Claudia Wagner, and Isabelle Augenstein. 2022. "Counterfactually Augmented Data and Unintended Bias: The Case of Sexism and Hate Speech Detection." In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, edited by Marine Carpuat, Marie-Catherine de Marneffe, and Ivan Vladimir Meza Ruiz, 4716–4726. Seattle: Association for Computational Linguistics. doi: https://doi.org/10.18653/v1/2022.naacl-main.347.

Erfahren Sie mehr über unsere Beratungsangebote und Serviceleistungen: