Algorithms and Society

Die Digitalisierung der Gesellschaft bringt einen Strukturwandel der Öffentlichkeit und des Privaten hervor, in dem Algorithmen eine entscheidende Rolle spielen – und das ist ganz wörtlich zu nehmen. Wir alle agieren in und mit soziotechnischen Systemen wie sozialen Medien, Suchmaschinen, Kauf-, Bewerbungs-, Informationsplattformen u.v.m. In diesen Systemen entscheiden maßgeblich Algorithmen welche Inhalte, Gruppen, Personen oder Institutionen wir präsentiert bekommen, uns vorgeschlagen werden und wie diese priorisiert werden. Algorithmen nutzen dabei oft das Nutzungsverhalten selbst als Ausgangsbasis und schaffen so eine komplexe rekursive Interaktion zwischen der Wirkweise des Algorithmus und menschlichem Verhalten und Erleben. Auf diese Weise entfalten künstliche Intelligenz, Algorithmen und automatisierte Prozesse Dynamiken, die für die Benutzenden nicht erkennbar sind und doch soziale Strukturen schaffen, die unser individuelles Leben und die Gesellschaft als Ganzes substanziell beeinflussen. Ob die Folgen dieses Einflusses wünschenswert sind oder nicht, kann nur diskutiert und bewertet werden, wenn wir wissen, wie genau digitale Technologien, das Web und die darin verwendeten Algorithmen gesellschaftliche Strukturen formen.

GESIS erforscht deshalb die Mechanismen soziotechnischer Systeme, um den sozialen Wandel, den sie bewirken, verstehen zu können und die Basis für informierte und „gute“ Entscheidungen zu verbessern. Wir tun dies durch die Erhebung digitaler Verhaltensdaten entlang gesellschaftlicher Fragestellungen, die Durchführung von Online-Experimenten zur Analyse von Verhaltensmustern und ihrer Beeinflussbarkeit in digitalen Umgebungen sowie die Entwicklung analytischer Tools. Eines der drängendsten gesellschaftlichen Probleme ist Ungleichheit. Algorithmen können bestehende soziale Ungleichheit verstärken oder selbst Verzerrungen und Diskriminierung verursachen. Wir erforschen, wie solche Verzerrungen (z.B. gender bias) konkret zustande kommen und wie andererseits Algorithmen und KI genutzt werden könnten, um struktureller Ungleichheit und Ungerechtigkeit oder Fehlinformation entgegenzuwirken.

  • Beytía, Pablo, and Claudia Wagner. 2022. "Visibility layers: a framework for systematising the gender gap in Wikipedia content." Internet Policy Review 11 (1). doi: https://doi.org/10.14763/2022.1.1621.
  • Soldner, Felix, Bennett Kleinberg, and Shane Johnson. 2022. "Confounds and overestimations in fake review detection: Experimentally controlling for product-ownership and data-origin." PLoS ONE 17 (12): e0277869. doi: https://doi.org/10.1371/journal.pone.0277869.
  • Ulloa, Roberto, Ana Carolina Richter, Mykola Makhortykh, Aleksandra Urman, and Celina Kacperski. 2022. "Representativeness and face-ism: Gender bias in image search." New Media & Society 26 (6). doi: https://doi.org/10.1177/14614448221100699.
  • Ulloa, Roberto, Mykola Makhortykh, and Aleksandra Urman. 2022. "Scaling up search engine audits: Practical insights for algorithm auditing." Journal of Information Science 50 (2). doi: https://doi.org/10.1177/01655515221093029.
  • Hagen, Lutz M., Mareike Wieland, and Anne-Marie In der Au. 2017. "Algorithmischer Strukturwandel Der Öffentlichkeit: Wie Die Automatische Selektion Im Social Web Die Politische Kommunikation verändert Und Welche Gefahren Dies Birgt." MedienJournal 41 (2): 127-143. doi: https://doi.org/10.24989/medienjournal.v41i2.1476.

Erfahren Sie mehr über unsere Beratungsangebote und Serviceleistungen: