Diplomarbeit, 2011
114 Seiten
1 Einleitung
1.1 Definition
1.2 Motivation der Klickbetrüger
1.3 Hintergrund
2 Online Werbung
2.1 Überblick
2.1.1 Ad-Netzwerke
2.1.2 Search Engine Marketing
2.2 Verrechnungsmodelle
2.2.1 Einteilung
2.2.1.1 Cost per view
2.2.1.2 Cost per click
2.2.1.3 Cost per action
2.2.2 Cost per click und Click Fraud
2.3 Schädigungspotential von Klickbetrug am Beispiel Unito (Otto und Universal Versand)
2.3.1 Neukunden
2.3.2 Anteil am Umsatz
2.3.3 Fazit
3 Varianten des Klickbetrug und technische Umsetzung
3.1 Manuelles Klicken
3.2 Automatisierte Verfahren zum Klickbetrug
3.2.1 Clickbots
3.2.2 Beispiel Clickbot.A
3.2.2.1 Verbreitung
3.2.2.2 Clickbot.A Client
3.2.2.3 Clickbot.A Server
3.2.2.4 Lebenszyklen des Clickbot.A
3.2.2.5 “Geschäftsmodell” des Clickbot.A
3.2.2.6 Fazit
3.2.3 Erzwungene Browser-Clicks
3.2.3.1 Ausführbarer Code im Webclient
3.2.3.2 Aufbau einer Badvertisement-Architektur
3.2.3.3 Fassadensites
3.2.3.4 Fazit
3.2.4 Social click humbuggery
4 Erkennung und Prävention
4.1 Definition invalid click
4.2 Erkennung
4.2.1 Verwertbare Eigenschaften eines HTTP-Requests
4.2.2 Operative Definition
4.3 Erkennungsverfahren
4.3.1 Betreiber Suchmaschinen und Ad-Netzwerke
4.3.1.1 Pre-Filter
4.3.1.2 Online Filter
4.3.1.3 Post-Filter
4.3.2 Werbende Unternehmen
4.3.2.1 Auswertung Traffic
4.3.2.2 Auswertung des geschäftlichen Erfolges
5 Pickwick: Ein Framework zur Identifizierung unerwünschter Klicks
5.1 Einleitung
5.1.1 Umgebung und Systemvoraussetzungen
5.1.2 Überblick
5.1.3 Umgebung
5.2 Rulesets
5.2.1 Befehlssatz
5.2.1.1 load-ruleset
5.2.1.2 clear-click-cache
5.2.1.3 clear-or-define-ruleset
5.2.1.4 defrule
5.2.1.5 count-clicks
5.2.1.6 save-value
5.2.1.7 load-value
5.2.1.8 clear-store
5.2.1.9 run-ruleset-on-csv-file
5.2.1.10 run-ruleset
5.2.1.11 Operatoren <, >, <=, >=, =, /= und string=
5.2.1.12 Kontrollstrukturen if, when, do, dotimes, ...
5.2.1.13 Kommentare
6 Beispiele für Rulesets
6.1 Doppelklick
6.2 Komplexere Variante des Doppelklick und Ausschluss einfacherer Varianten des manuellen Klickbetrugs
6.3 Anomalien zu Vortagen finden
6.4 Anomalien in den via Proxy generierten Klicks
6.5 Proof of Concept: Integration in Webserver
7 Conclusio
A Quellcode Pickwick
A.1 Lizenz
A.2 pickwick.asd
A.3 packages.lisp
A.4 click-buffer.lisp
A.5 ruleset.lisp
A.6 redirector.lisp
A.7 csvreader.lisp
A.8 testdaten-generator.lisp
Diese Arbeit analysiert das Phänomen des Klickbetrugs im Online-Marketing mit dem Ziel, Methoden zur Identifizierung und Prävention zu entwickeln. Die Forschungsfrage konzentriert sich darauf, wie betrügerische Klick-Aktivitäten innerhalb von Pay-per-Click-Abrechnungsmodellen erkannt und durch technische Frameworks sowie algorithmische Analysen systematisch unterbunden werden können.
1.1 Definition
Click Fraud (oder auch Klickbetrug) bezeichnet jegliche Absicht, Pay per click Verrechnungsmodelle (vergleiche Abschnitt 2.2.1.1) unlauter auszunutzen. Jeder Klick, ausgelöst von einem Menschen oder automatisiert von Maschinen, auf eine Pay-per-Klick-Anzeige wird als betrügerisch angesehen, wenn vom Benutzer kein Interesse an dem Inhalt oder dem Angebot des Werbers im weiteren Sinne besteht [16, Seite 9] [3, Seite 7] [7, Seite 9]. Diese Definition des Klickbetrugs ist nicht im juristischen Sinne zu verstehen.
Das Diskussionspapier der Kommission der Europäischen Union zur Schaffung einer gesetzlichen Handhabe bezüglich Attacken gerichtet gegen Informationssysteme definiert Click Fraud ähnlich als:
Click fraud is a type of Internet crime that occurs in pay per click online advertising when a person, automated script, or computer programme imitates a legitimate user of a web browser clicking on an ad for the purpose of generating a charge per click without having actual interest in the target of the ad’s link. Click fraud is the subject of some controversy and increasing litigation due to the advertising networks being a key beneficiary of the fraud [6, Seite 12].
1 Einleitung: Diese Einleitung führt in die Problematik des Klickbetrugs ein und definiert den zentralen Begriff sowie die Motivation hinter solchen Aktivitäten.
2 Online Werbung: Hier werden die Grundlagen der Online-Werbung sowie gängige Verrechnungsmodelle im Search Engine Marketing dargelegt und deren wirtschaftliche Bedeutung für Unternehmen wie Unito illustriert.
3 Varianten des Klickbetrug und technische Umsetzung: Dieses Kapitel systematisiert verschiedene Formen des Klickbetrugs, von manuellem Klicken bis hin zu automatisierten Verfahren wie Botnetzen und Badvertisements.
4 Erkennung und Prävention: Es wird analysiert, wie betrügerische Klicks anhand von HTTP-Request-Eigenschaften erkannt werden können und welche Filtermechanismen bei Netzbetreibern und Unternehmen zum Einsatz kommen.
5 Pickwick: Ein Framework zur Identifizierung unerwünschter Klicks: Hier wird das in Lisp entwickelte Framework "Pickwick" vorgestellt, das zur automatisierten Analyse und Identifizierung von betrügerischen Klick-Mustern dient.
6 Beispiele für Rulesets: Dieses Kapitel präsentiert konkrete Anwendungsbeispiele für Rulesets innerhalb von Pickwick, um spezifische Betrugsszenarien wie Doppelklicks oder Proxy-Anomalien zu detektieren.
7 Conclusio: Im Fazit werden die Erkenntnisse zur Erkennung und Prävention von Klickbetrug zusammengefasst und die Effektivität des entwickelten Frameworks bewertet.
Click Fraud, Klickbetrug, Online Werbung, Pay per Click, CPC, Botnet, HTTP-Request, Ad-Netzwerk, Search Engine Marketing, Web-Proxy, Pickwick, Lisp, Betrugserkennung, Analyse, Ruleset
Die Arbeit behandelt das Problem des Klickbetrugs im Online-Marketing, bei dem Pay-per-Click-Abrechnungsmodelle durch betrügerische Klicks manipuliert werden.
Die zentralen Themen sind die ökonomischen Grundlagen der Online-Werbung, die technische Klassifizierung von Betrugsvarianten sowie die Entwicklung von Erkennungsmechanismen.
Das primäre Ziel ist die Entwicklung eines Frameworks, das betrügerische Klicks identifizieren kann, um Werbetreibende vor unnötigen Kosten zu schützen.
Die Arbeit kombiniert eine theoretische Analyse der Betrugsszenarien mit einer softwaretechnischen Implementierung (Framework in Common Lisp) zur automatisierten Auswertung von Logdaten.
Der Hauptteil gliedert sich in eine theoretische Marktanalyse, die technische Beschreibung von Betrugsmethoden, eine Analyse von HTTP-Header-Eigenschaften und die Vorstellung des Frameworks Pickwick.
Die Kernbegriffe sind Klickbetrug, CPC-Modelle, Botnetze, HTTP-Analyse, Ad-Netzwerke und das entwickelte Pickwick-Framework.
Pickwick nutzt ein regelbasiertes System (DSL), das HTTP-Requests auf Basis von vordefinierten Kriterien und Anomalien bewertet, um diese als "ignoriert" oder "inform" zu markieren.
Lisp ermöglicht eine sehr effiziente und flexible Definition von Regeln (Rulesets) durch Domain Specific Languages (DSL) und eignet sich exzellent für datenintensive Analysen.
Ja, durch die Analyse von Zeitintervallen und der Korrelation von IP-Adressen können Anomalien, die auf Proxy- oder Botnet-Nutzung hindeuten, identifiziert werden.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!

