Untersuchung der dunklen Seite des Ad-Targeting-Systems von Google

Dass Google und andere Unternehmen unsere Bewegungen im Web verfolgen, um uns gezielt mit Anzeigen zu beliefern, ist allgemein bekannt. Wie genau diese Informationen verwendet werden, ist nicht bekannt – aber ein Forschungsbericht, der letzte Woche vorgestellt wurde, deutet darauf hin, dass einige der algorithmischen Urteile, die aus dem Anzeigensystem von Google hervorgehen, vielen Menschen als unappetitlich erscheinen könnten.

Forscher der Carnegie Mellon University und des International Computer Science Institute haben ein Tool namens AdFisher entwickelt, um die Ausrichtung von Anzeigen zu untersuchen, die von Google auf Websites Dritter geschaltet werden. Sie fanden heraus, dass gefälschte Webnutzer, die von Google als männliche Arbeitssuchende angesehen wurden, viel wahrscheinlicher als entsprechende weibliche Arbeitssuchende ein Paar Anzeigen für hochbezahlte Führungspositionen sahen, wenn sie später eine Nachrichten-Website besuchten.

AdFisher zeigte auch, dass a Transparenztool von Google Die so genannten Anzeigeneinstellungen, mit denen Sie die Interessen anzeigen und bearbeiten können, die das Unternehmen für Sie abgeleitet hat, spiegeln nicht immer potenziell vertrauliche Informationen wider, die verwendet werden, um Sie anzusprechen. Das Durchsuchen von Websites, die sich beispielsweise an Menschen mit Drogenproblemen richten, löste eine Flut von Anzeigen für Reha-Programme aus, aber es gab keine Änderung an der Transparenzseite von Google.



Was genau diese spezifischen Muster verursacht hat, ist unklar, da das Adserving-System von Google sehr komplex ist. Google verwendet seine Daten, um Anzeigen gezielt auszurichten, aber Anzeigenkäufer können einige Entscheidungen über demografische Interessen treffen und auch ihre eigenen Datenquellen zu den Online-Aktivitäten von Personen verwenden, um zusätzliches Targeting für bestimmte Arten von Anzeigen vorzunehmen. Die Beispiele verstoßen auch nicht gegen spezifische Datenschutzbestimmungen – obwohl die Google-Richtlinie das Targeting auf der Grundlage von Gesundheitsbedingungen verbietet. Trotzdem, sagt Anupam Datta , einem außerordentlichen Professor an der Carnegie Mellon University, der an der Entwicklung von AdFisher mitgewirkt hat, zeigen sie den Bedarf an Tools, die aufdecken, wie Online-Werbeunternehmen zwischen Menschen unterscheiden.

Ich denke, unsere Ergebnisse deuten darauf hin, dass es Teile des Werbeökosystems gibt, in denen Diskriminierungen auftreten und es an Transparenz mangelt, sagt Datta. Dies ist aus gesellschaftlicher Sicht besorgniserregend. Werbesysteme wie das von Google beeinflussen die Informationen, denen Menschen ausgesetzt sind, und möglicherweise sogar die Entscheidungen, die sie treffen. Daher ist es wichtig zu verstehen, wie diese Systeme Daten über uns verwenden, sagt er.

Selbst Unternehmen, die Online-Werbenetzwerke betreiben, haben keine gute Vorstellung davon, welche Rückschlüsse ihre Systeme auf Personen ziehen und wie diese Rückschlüsse verwendet werden, sagt Datta. Seine Gruppe hat begonnen, mit Microsoft zusammenzuarbeiten, um eine Version von AdFisher für den Einsatz innerhalb des Unternehmens zu entwickeln, um nach potenziell besorgniserregenden Mustern in der Anzeigenausrichtung auf der Suchmaschine Bing zu suchen. Ein Papier von Datta und zwei Kollegen— Michael Tschantz , des International Computer Science Institute, und Amit Datta , auch bei Carnegie Mellon – wurde bei der vorgestellt Symposium zu Technologien zur Verbesserung der Privatsphäre letzten Donnerstag in Philadelphia.

Google habe nicht offiziell geantwortet, als die Forscher das Unternehmen Ende letzten Jahres wegen ihrer Ergebnisse kontaktierten, heißt es. Im Juni dieses Jahres bemerkte das Team jedoch, dass Google einen Haftungsausschluss zu seiner Seite mit den Anzeigeneinstellungen hinzugefügt hatte. Die angezeigten Interessenkategorien sollen nun nur einen Teil der Google-Anzeigen steuern, die Sie sehen, und nicht diejenigen, bei denen Dritte ihre eigenen Daten verwendet haben. Laut Datta schränkt dies die Nützlichkeit des Transparenz-Tools von Google stark ein, das wahrscheinlich dazu verwendet werden könnte, solche Informationen offenzulegen, wenn das Unternehmen dies wünscht. Sie schalten diese Anzeigen, und wenn sie wollten, könnten sie diese Interessen widerspiegeln, sagt er.

Werbetreibende können wählen, ob sie die Zielgruppe ansprechen möchten, die sie erreichen möchten, und wir haben Richtlinien, die die Art der zulässigen interessenbezogenen Anzeigen regeln, sagte Andrea Faville, eine Sprecherin von Google, in einer E-Mail. Wir bieten Benutzern Transparenz mit „Warum diese Anzeige“-Hinweisen und Anzeigeneinstellungen sowie die Möglichkeit, interessenbezogene Anzeigen abzulehnen. Google untersucht die Methodik der Studie, um zu versuchen, ihre Ergebnisse zu verstehen.

Das AdFisher-Tool sendet Hunderte oder Tausende von automatisierten Webbrowsern auf sorgfältig ausgewählten Pfaden über das Web, sodass ein Ad-Targeting-Netzwerk auf bestimmte Interessen oder Aktivitäten schließen kann. Die Software zeichnet dann auf, welche Anzeigen gezeigt werden, wenn jeder automatisierte Browser eine Nachrichten-Website besucht, die das Werbenetzwerk von Google verwendet, sowie alle Änderungen an der Seite mit den Anzeigeneinstellungen. In einigen Experimenten wird diese Seite bearbeitet, um nach Unterschieden zwischen der Art und Weise zu suchen, wie Anzeigen beispielsweise auf Männer und Frauen ausgerichtet sind. AdFisher kennzeichnet automatisch alle statistisch signifikanten Unterschiede bei der Ausrichtung von Anzeigen anhand der untersuchten bestimmten Interessenkategorien oder demografischen Merkmale.

Roxana Geambasu , ein Assistenzprofessor an der Columbia University, sagt, dass die Art und Weise, wie AdFisher Muster aus der Komplexität zielgerichteter Anzeigen statistisch extrahieren kann, einen erheblichen Wert hat. Ein Tool namens XRay , das ihre eigene Forschungsgruppe letztes Jahr veröffentlichte, kann die Verbindung zwischen Anzeigen, die Gmail-Nutzern gezeigt werden, und Schlüsselwörtern in ihren Nachrichten zurückentwickeln. Beispielsweise könnten Anzeigen für Autokredite mit geringen Anforderungen auf Personen ausgerichtet sein, die Wörter verwenden, die mit finanziellen Schwierigkeiten in Verbindung gebracht werden.

Geambasu sagt jedoch, dass die Ergebnisse sowohl von XRay als auch von AdFisher immer noch nur suggestiv sind. Sie können keine großen Schlussfolgerungen ziehen, weil wir das nicht sehr viel studiert haben und diese Beispiele seltene Ausnahmen sein könnten, sagt sie. Was wir jetzt brauchen, sind Infrastruktur und Werkzeuge, um diese Systeme in viel größerem Maßstab zu untersuchen. In der Lage zu sein, zu beobachten, wie Algorithmen Personen anvisieren und verfolgen, um beispielsweise Anzeigen zu schalten oder den Preis von Versicherungen und anderen Produkten zu optimieren, ist wahrscheinlich von entscheidender Bedeutung, wenn Bürgerrechtsgruppen und Aufsichtsbehörden mit den Entwicklungen bei der Verwendung von Daten durch Unternehmen Schritt halten sollen, sagt sie .

Ein Bericht des Weißen Hauses über die Auswirkungen von Big Data im vergangenen Jahr kam zu ähnlichen Schlussfolgerungen. Datenanalysen haben das Potenzial, den langjährigen Schutz der Bürgerrechte bei der Verwendung personenbezogener Daten in den Bereichen Wohnen, Kredit, Beschäftigung, Gesundheit, Bildung und Markt in den Schatten zu stellen, hieß es.

verbergen