• REVOLVERMAENNER Reputation Management

    Schreiben Sie uns eine Email. Wir werden Ihnen schnellstmöglich antworten.

      Name*
      Unternehmen
      Email*
      Telefon
      Ihre Nachricht*
      Mit der Nutzung dieses Formulars erklären Sie sich mit der Speicherung und Verarbeitung Ihrer Daten durch diese Website einverstanden.

      REVOLVERMAENNER Reputation Management

      Sie benötigen unsere Unterstützung?
      Wir rufen Sie gerne zurück!

        Name*

        Unternehmen

        Telefon*

        Wann möchten Sie zurückgerufen werden?

        Heute

        Morgen

        Mit der Nutzung dieses Formulars erklären Sie sich mit der Speicherung und Verarbeitung Ihrer Daten durch diese Website einverstanden.


        • +49 211 520636-0 Sprechen Sie mit uns: Mo - Fr: 09 - 18 Uhr
        • E-Mail Schreiben Sie uns. Wir antworten schnellstmöglich.
        • Rückruf-Service Sagen Sie uns, wann wir Sie erreichen können.
        • Standorte Sprechen Sie mit uns persönlich. Vorort.

        Düsseldorf. Kosmopolitische Landeshauptstadt und Einsatzzentrale der REVOLVERMÄNNER.

        Von hier aus leiten, überwachen und koordinieren wir die nationalen und internationalen Operationen der REVOLVERMÄNNER. Besuchen Sie uns. Wir freuen uns, Sie an unserem Standort in der nordrhein-westfälischen Metropole begrüßen zu dürfen.

        Burgunderstraße 29 [Burgunderhof]
        40549 Düsseldorf

        +49 211 520636-0

        contact@revolvermaenner.com

         



        Christian Scherg

        Founder & CEO
        Managing Director Düsseldorf

        Essen/ im Future Safe House. Unser Standort im Herzen der Metropole Ruhr.

        Unsere Reputationsagentur Essen hat ihren Sitz im Future Safe House – Einem mit modernster Technik ausgerüsteten Gebäude, in dem die Mitglieds-Organisationen und -Unternehmen unter einem Dach gemeinsam in interdisziplinären Teams ganzheitliche Lösungen für die Sicherheit von Morgen entwickeln und anbieten.

        Müller-Breslau-Straße 28
        45130 Essen

        Zentrale: +49 211 520636-0

        contact@revolvermaenner.com

         



        Johannes Bünting
        Senior Consultant
        Managing Director Essen

        Toronto. Unser Standort an einem der wichtigsten Knotenpunkte Nordamerikas.

        Von hier aus betreuen wir Unternehmen und Organisationen mit internationalen Niederlassungen in den USA, Kanada und Nordamerika. Außerdem führen wir schwerpunktmäßig Operationen durch, die der Aufklärung und [digitalen] Informationsbeschaffung dienen.

        5600-100 King St W
        Toronto, M5X1C9 | Canada

        +1 437-888-5865

        contact@revolvermaenner.com

           



        Idan Attila Schmidt
        Senior Partner
        Managing Director North America

        Social Bots

        In der Folge „Social Bots – Mit Carla Kaspari“ des Podcasts „Man lernt nie aus“ von Spotify geht Christian Scherg, Experte für Reputationsmanagement und digitale Sicherheit, auf die stetig wachsende Gefahr durch Social Bots im Internet ein und erklärt, wie diese in den sozialen Medien immer perfider werden.

        Unter Bots (vom englischen Begriff „robots“ = Roboter) versteht man in erster Linie Computerprogramme, welche spezielle Aufgaben automatisiert und größtenteils eigenständig abarbeiten. Bots sind nicht per se etwas Schlechtes oder „böse“, sondern sind in unserer heutigen Gesellschaft immer präsenter und werden überaus häufig genutzt.

        Alexa von Amazon ist ein solcher Bot, welche uns, wie auch andere vergleichbare Systeme, jeden Morgen regelmäßig weckt oder uns erzählt, wie sich das Wetter im Laufe des Tages entwickeln soll. Auch im Kundensupport-Chat zahlreicher Unternehmen kommen Bots zum Einsatz, welche zunächst die individuellen Anfragen der Kunden aufnehmen und dann idealerweise direkt an einen menschlichen Mitarbeiter weiterleiten. Doch was ist, wenn man etwa den Bot im Supportchat immer schwieriger von einem realen Menschen unterscheiden kann?

        Social Bots sind folglich Bots der schlechten Sorte, da diese sich nicht klar als solche zu erkennen geben, sondern eine menschliche Identität hinter Profilnamen und Avatar vortäuschen sollen. Sie werden primär dort eingesetzt, wo viele Menschen, oftmals tagtäglich, besonders aktiv sind, miteinander kommunizieren und Informationen verbreiten – in den sozialen Medien.

        „Es sollen laut Studien weltweit 100 Millionen aktive Social Bots existieren; etwa 30 bis 35 Millionen allein auf Facebook und nochmal 62 bis 80 Millionen auf Twitter“, so Kommunikationsexperte Christian Scherg. „Das sind 20 bis 25 Prozent aller Profile auf Twitter, die tatsächlich automatisierte Systeme sind und versuchen, den anderen Usern vorzuspielen, dass sie menschlich sind.“

        Social Bots – eine Simple, aber effektive Waffe

        social bots

        Besonders heikel in diesem Zusammenhang: Programmierung und Beschaffung solcher Social Bots sind relativ simpel. Christian Scherg erwähnt in diesem Kontext spezielle APIs beziehungsweise Schnittstellen der jeweiligen Social Media-Anbieter, browsergestützte Automatisierungsprozesse und Softwarebibliotheken, welche einfach heruntergeladen werden können. „Ich brauche für einen Social Bot insgesamt nur 15 Zeilen Code, dann ist er funktionstüchtig.“

        Erschwerend kommt hinzu, dass auch der Kauf von Social Bots im Internet nicht nur relativ simpel, sondern auch günstig ist. 1000 simple Twitter-Accounts kosten etwa $45, für $150 können ebenso viele ältere Accounts bei Facebook erworben werden. Eine spezielle Software, welche 10.000 solcher Social-Bot-Accounts bei Twitter organisiert und steuert, kostet noch einmal knapp $500. Für etwa $600 kann sich also jedermann ein einsatzbereites Netzwerk aus Social Bots kaufen.

        Doch wie können User erkennen, dass sie es im Internet nicht mit realen Menschen, sondern mit Social Bots zu tun haben? „Ich erkenne sie in erster Linie an den Freunden – Social Bots haben keine richtigen Freunde. Bots unterhalten sich mit Bots. Wenn ich einen Social Bot erkenne, erkenne ich oft schon viele andere, weil sie sich gegenseitig in den sozialen Netzwerken folgen“, so Christian Scherg, der mit seiner Kommunikationsagentur für Online-Reputationsmanagement auf mehr als 15 Jahre Erfahrung zurückblickt.

        „Die Häufigkeit und die Tageszeit der Interaktionen geben Aufschluss darüber, ob ich es mit einem realen Menschen oder einem automatisierten System zu tun habe – Bots posten immer wieder zur gleichen Zeit, weil sie eben automatisiert sind. Auch die Sprache und Inhalte lassen auf einen Social Bot schließen. Sie sind empathielos, inhuman sowie ohne wirkliche Aussage und Inhalt. Sie posten schlichtweg eine Nachricht nach der anderen – es gibt keinerlei wirkliche Interaktion“, fügt Scherg hinzu.

        Social Bots – Perfide, manipulativ und immer schwieriger aufzuspüren

        Doch so leer und unmenschlich diese künstlichen erzeugten „Stimmen“ auch sein mögen – durch ihre schiere Menge von etwa 100 Millionen Social Bots in den wichtigsten sozialen Netzwerken nehmen sie immer mehr verzerrenden Einfluss auf den öffentlichen Diskurs, besonders bei ohnehin schon kontroversen politischen Themen. „Es werden entsprechende Nachrichten und Hashtags gepusht, sie vergiften das Diskussionsklima und tragen zur Desinformation bei, sie manipulieren Aktienmärkte, diskreditieren einzelne Personen und sind verantwortlich für die massenhafte Verbreitung von Gerüchten sowie Fake News.“

        Zudem werden Social Bots auch bei Cyber Warfare und hybrider Kriegsführung eingesetzt oder erschaffen künstliche Marken und Märkte, um nichtsahnende Nutzerinnen und Nutzer zu Investments in nicht existente Produkte oder Firmen zu verleiten.

        Doch auch im Influencer-Marketing oder auf Dating-Plattformen sind Social Bots in den letzten Jahren ein immer beliebteres Werkzeug geworden. Hier dienen sie nicht nur der Vergrößerung der eigenen Reichweite, sondern auch der direkten Beeinflussung der Kundschaft. „Die Online-Dating-Plattform Ashley Madison ist ein Beispiel“, so Christian Scherg. „Hier wurden Social Bots eingesetzt, die vortäuschten, Frauen zu sein; sie sollten Männer in Gespräche verwickeln und diese zu kostenpflichtigen Chats mit den vermeintlich realen Frauen verleiten.“

        Die „Vermenschlichung“ durch Künstliche Intelligenz

        Doch dabei bleibt es leider nicht, denn Social Bots und ihre Schöpfer lernen immer weiter hinzu. Die Fake-User entwickeln sich langsam von komplett empathielosen und inhumanen automatisierten Systemen zu immer perfideren und menschlicher auftretenden Bots.

        „Es ist eine Abkehr von schlichten regel- und eventbasierten Prozessen zu beobachten. Es werden verstärkt KI-Techniken eingesetzt, was ein besseres Targeting durch die komplexe Analyse des User-Verhaltens erlaubt, welches letztlich von den automatisierten Systemen imitiert wird. Sie analysieren Inhalte wie Dialoge, um noch menschlicher auftreten zu können. Bots lernen selbstständig, stellen Querverbindungen her und werden mit der Zeit immer besser und intelligenter“, kommentiert Christian Scherg die gefährliche Weiterentwicklung der Social Bots.

        „Ihnen stehen dafür leistungsstarke Algorithmen und Rechner zur Verfügung; wir reden nun also von (künstlichen) neuronalen Netzen, welche neue Verknüpfungen schaffen und es noch schwieriger machen, Social Bots als solche identifizieren zu können.“

        Bei dieser dystopisch erscheinenden Entwicklung kommt hinzu, dass die Strafverfolgung bisher äußerst schwierig ist, da die Erschaffung von Social Bots, etwa in Deutschland oder auch den USA, legal ist. Auch das Posten und Retweeten solcher Bots stellt keine Straftat dar. Zudem werden sie oftmals aus dem Ausland gesteuert und auch die sozialen Netzwerke haben zumeist wenig Interesse daran, vehement gegen Social Bots vorzugehen.

        Die Auswirkungen – ein Angriff auf Reputation und Diskussionskultur

        Ganz wichtig sei es dennoch, so Scherg, jeden einzelnen Bot zu melden. Denn die Aktivitäten der eigentlich legalen Bots sorge letztlich für Straftatbestände wie etwa Betrug, Wirtschaftskriminalität, Beleidigungen, unlauterer Wettbewerb, Verleumdung oder Identitätsdiebstahl.

        Bei einer Masse von etwa 100 Millionen Social Bots in den sozialen Netzwerken mag das Melden und Löschen eines einzelnen Bots wie ein Tropfen im Ozean erscheinen. Doch ohne die Aufmerksamkeit und den Meldewillen der User würden sich Social Bots noch schneller ausbreiten, voneinander lernen sowie sich weiterentwickeln können und damit noch perfider und gefährlicher werden.