"The role of algorithms in propelling conspiracy theories and radicalisation has been brought into sharp focus by the interlocking crises of the past 12 months. Social media platforms have sought to tamp down on algorithmic recommendation of conspiracy theories and extremist content, for example by
...
preventing conspiracy-linked hashtags from trending or stopping certain groups and pages from being recommended to other users." (Introduction)
more
"YouTube is the second-most visited website in the world, and its algorithm drives 70% of watch time on the platform—an estimated 700 million hours every single day. For years, that recommendation algorithm has helped spread health misinformation, political disinformation, hateful diatribes, and o
...
ther regrettable content to people around the globe. YouTube’s enormous influence means these films reach a huge audience, having a deep impact on countless lives, from radicalization to polarization [...] 37,380 YouTube users stepped up as YouTube watch dogs, volunteering data about the regrettable experiences they have on YouTube for Mozilla researchers to carefully analyze. As a result, Mozilla gained insight into a pool of YouTube's tightly-held data in the largest-ever crowdsourced investigation into YouTube's algorithm. Collectively, these volunteers flagged 3,362 regrettable videos, coming from 91 countries, between July 2020 and May 2021. This report highlights what we learned from our RegretsReporter research. Specifically, we uncovered three main findings: 1. YouTube Regrets are disparate and disturbing. Our volunteers reported everything from Covid fear-mongering to political misinformation to wildly inappropriate "children's" cartoons. The most frequent Regret categories are misinformation, violent or graphic content, hate speech, and spam/scams. 2. The algorithm is the problem. 71% of all Regret reports came from videos recommended to our volunteers by YouTube's automatic recommendation system. Further, recommended videos were 40% more likely to be reported by our volunteers than videos that they searched for. And in several cases, YouTube recommended videos that actually violate their own Community Guidelines and/or were unrelated to previous videos watched. 3. Non-English speakers are hit the hardest. The rate of YouTube Regrets is 60% higher in countries that do not have English as a primary language (with Brazil, Germany and France being particularly high), and pandemic-related Regrets were especially prevalent in non-English languages." (Executive summary)
more
"Beim so genannten „Scoring“ wird einer Person mithilfe algorithmischer Verfahren ein Zahlenwert zugeordnet, um ihr Verhalten zu bewerten und zu beeinflussen. „Super-Scoring“-Praktiken gehen noch weiter und führen Punktesysteme und Skalen aus unterschiedlichen Lebensbereichen zusammen, wie
...
etwa Bonität, Gesundheitsverhalten oder Lernleistungen. Diese Ver-fahren könnten sich zu einem neuen und übergreifenden Governance-Prinzip in der digitalen Gesellschaft entwickeln. Ein besonders prominentes Beispiel ist das Social Credit System in China. Aber auch in westlichen Gesellschaften gewinnen Scoring-Praktiken und digitale Soziometrien an Bedeutung. Dieser Open Access Band stellt aktuelle Beispiele von datengetriebenen sozialen Steuerungs-prozessen aus verschiedenen Ländern vor, diskutiert ihre normativen Grundlagen und gesell-schaftspolitischen Auswirkungen und gibt erste bildungspolitische Empfehlungen. Wie ist der aktuelle Stand einschlägiger Praktiken in China und in westlichen Gesellschaften? Wie sind die individuellen und sozialen Folgen zu bewerten? Wie wandelt sich das Bild vom Menschen und wie sollte bereits heute die politische und aufklärerische Bildung darauf reagieren?" (Buchrückseite)
more
"Understanding and improving the science behind the algorithms that run our lives is quickly becoming one of the most pressing issues of this century. Traditional solutions, such as laws, regulations and watchdog groups, have proven woefully inadequate, at best. Derived from the cutting-edge of scie
...
ntific research, The Ethical Algorithm offers a new approach: a set of principled solutions based on the emerging and exciting science of socially aware algorithm design. Weaving together the science behind algorithm design with stories of citizens, lawyers, scientists, and activists experiencing the trial-and-error of research in real-time, Michael Kearns and Aaron Roth present a strikingly original way forward, showing how we can begin to work together to protect people from the unintended impacts of algorithms—and, sometimes, protect the science that could save us from ourselves." (Publisher description)
more
"Die britische Mathematikerin Hannah Fry stellt Algorithmen als schrittweise Verfahren vor, die dazu dienen, Probleme zu lösen oder ein Ziel zu erreichen. Für Medizin, Polizei, Justiz, Verkehr oder Handel könne das äußert fortschrittlich sein. Doch die bahnbrechende Technik habe ihren Preis - A
...
lgorithmen beruhen nicht zuletzt auf großen Mengen auch privater Daten und können Nutzer fehlleiten oder gar manipulieren. Sie suggerieren Objektivität und Autorität und sind zugleich hoch anfällig für den Missbrauch durch Partikularinteressen. Fry erklärt, wie Algorithmen funktionieren, was ihre Stärken ausmacht und wo ihre Grenzen liegen. Sie plädiert für einen bewussten, weitsichtigen Umgang mit dieser Technik und möchte solche Modelle fördern, die humanen Anforderungen gerecht werden und uns auf ebenso demokratische wie transparente Weise bei Entscheidungsfindungen unterstützen." (Klappentext)
more
"After a long time of neglect, Artificial Intelligence is once again at the center of most of our political, economic, and socio-cultural debates. Recent advances in the field of Artifical Neural Networks have led to a renaissance of dystopian and utopian speculations on an AI-rendered future. Algor
...
ithmic technologies are deployed for identifying potential terrorists through vast surveillance networks, for producing sentencing guidelines and recidivism risk profiles in criminal justice systems, for demographic and psychographic targeting of bodies for advertising or propaganda, and more generally for automating the analysis of language, text, and images. Against this background, the aim of this book is to discuss the heterogenous conditions, implications, and effects of modern AI and Internet technologies in terms of their political dimension: What does it mean to critically investigate efforts of net politics in the age of machine learning algorithms?" (Publisher description)
more
"Bei den Algo.Rules handelt es sich um einen Katalog an formalen Kriterien, die beachtet werden müssen, um eine gesellschaftlich förderliche Gestaltung und Überprüfung von algorithmischen Systemen zu ermöglichen und zu erleichtern. Sie legen eine Grundlage für ethische Erwägungen und für die
...
Um- und Durchsetzung rechtlicher Rahmenbedingungen. Diese Kriterien sollen bereits bei der Entwicklung der Systeme mitgedacht und „by design“ implementiert werden. Die einzelnen Algo.Rules sind interdependent und als Gesamtkomplex zu betrachten. Interessierte sind dazu eingeladen, die Algo.Rules gemeinsam mit uns weiterzugestalten, si e zu übernehmen, anzupassen, zu erweitern und vor allem Wege zu suchen, sie in der Praxis anzuwenden. Die Algo.Rules sind dynamisch angelegt und sollen insbesondere hinsichtlich ihrer konkreten Umsetzung weiter verfeinert werden." (Seite 2)
more
"Algorithmische Entscheidungsprozesse auch für diejenigen transparent und nachvollziehbar zu machen, die von den Entscheidungen betroffen sind, ist wichtig, damit die Betroffenen die Funktionslogik dieser Systeme verstehen, sich kritisch mit ihnen auseinandersetzen, sie wenn nötig anfechten oder a
...
ls Nutzer richtig anwenden können. Wie aber sollten Transparenz und Nachvollziehbarkeit von Algorithmen umgesetzt werden? Hier fehlt es bislang an konkreten Ideen und Vorschlägen. Es ist an der Zeit, allgemeine Forderungen nach Transparenz und Nachvollziehbarkeit zu präzisieren und sich mit Detailfragen zu beschäftigen. So bedarf es nicht nur je nach Anwendungsbereich und Nutzergruppen anderer Ansätze (siehe Abschnitt 4), sondern es bestehen auch grundsätzliche Herausforderungen (siehe Abschnitt 6), die stärker in den Blick genommen werden müssen." (Fazit, Seite 35)
more
"Im internationalen Kontext haben sich in den vergangenen Jahren zahlreiche Organisationen und Arbeitsgruppen mit dem Problem der Gütesicherung von algorithmischen Prozessen befasst. Da dieser Diskurs in Deutschland deutlich weniger entwickelt ist, bietet sich die Analyse einiger ausgewählter inte
...
rnationaler Vorschläge an, um daraus Einsichten für die Erstellung eines deutschsprachigen Entwurfes abzuleiten. Für das vorliegende Papier wurden drei aktuelle Dokumente ausgewählt: das Statement on Algorithmic Transparency and Accountability des ACM US Public Policy Council, die Asilomar AI Principles des Future of Life Institute (AI: artificial intelligence) sowie die Principles for Accountable Algorithms und das Social Impact Statement for Algorithms des FAT/ML-Kollektivs. Im Folgenden werden diese drei Vorschläge für Gütekriterien beschrieben und analysiert. Dies geschieht mit Hinblick auf diese drei Dimensionen: Wer sind die Verfasser? Was sind der Entstehungshintergrund und die Ziele? (Beschreibung); Was ist der Inhalt? Was wird konkret gefordert? Wer sind die Adressaten? (Beschreibung) Was sind die Stärken des Kataloges, wo besteht Verbesserungsbedarf? (Analyse). Zuletzt werden aus den Ergebnissen übertragbare Stärken und auszugleichende Schwächen für die Erstellung eines deutschsprachigen Gütekriterienkataloges identifiziert." (Einleitung)
more
"Hochfrequenzhandel, Google-Ranking, Filterbubble - nur drei aktuelle Beispiele der Wirkmacht von Algorithmen. Der Band versammelt Beiträge, die sich mit dem historischen Auftauchen und der mittlerweile allgegenwärtigen Verbreitung von Algorithmen in verschiedenen Bereichen des sozialen Lebens bes
...
chäftigen. Sie nehmen die Wechselbeziehungen algorithmischer und nicht-algorithmischer Akteure und deren Bedeutungen für unseren Alltag und unsere Sozialbeziehungen in den Blick und gehen den Mechanismen nach, mit denen Algorithmen - selbst Produkte eines spezifischen Weltzugangs - die Wirklichkeit rahmen, während sie zugleich die Art und Weise organisieren, wie Menschen über Gesellschaft denken. Die Beiträge beinhalten Fallstudien zu Sozialen Medien, Werbung und Bewertung, aber auch zu mobilen Sicherheitsinfrastrukturen wie z.B. Drohnen." (Verlagsbeschreibung)
more
"Von algorithmischen Prozessen gesteuerte Intermediäre wie Google oder Facebook haben im Vergleich zu redaktionell gesteuerten Medien wie dem Fernsehen einen großen, aber bislang nicht entscheidenden Einfluss auf die öffentliche Meinungsbildung. Sie bewerten die Relevanz von Inhalten viel stärke
...
r als redaktionelle Medien an unmittelbaren Reaktionen des Publikums. Die Nutzung der Intermediäre für öffentliche Meinungsbildung führt zu einem Strukturwandel der Öffentlichkeit. Zentral ist dabei ein zunehmend personalisiertes und maschinell kuratiertes Medienangebot, bei dem unmittelbare Nutzerreaktionen ein bedeutender Input sind. Eine Reihe psychologischer Faktoren führt aber dazu, dass die ausgewerteten vor allem impulsiven Publikumsreaktionen schlecht geeignet sind, um Relevanz im Sinne klassischer Leitwerte wie Wahrheit, Vielfalt oder gesellschaftliche Integration zu bewerten, die in Deutschland Grundlage der von redaktionellen Medien geschaffenen Öffentlichkeit sind. Im Zentrum der komplexen Wechselwirkungen digitaler Öffentlichkeit stehen algorithmische Prozesse, die Inhalte sortieren und deren Zusammenstellung personalisieren. Deshalb müssen Lösungen zuerst hier ansetzen." (Verlagsbeschreibung)
more
"Personalized recommendations in search engines, social media and also in more traditional media increasingly raise concerns over potentially negative consequences for diversity and the quality of public discourse. The algorithmic filtering and adaption of online content to personal preferences and
...
interests is often associated with a decrease in the diversity of information to which users are exposed. Notwithstanding the question of whether these claims are correct or not, this article discusses whether and how recommendations can also be designed to stimulate more diverse exposure to information and to break potential ‘filter bubbles’ rather than create them. Combining insights from democratic theory, computer science and law, the article makes suggestions for design principles and explores the potential and possible limits of ‘diversity sensitive design’." (Abstract)
more