Algorithmen führen bis zu einem gewissen Grad zu einem Verlust der Kontrolle über konsumierte Inhalte. Informationen über das eigene Nutzungsverhalten werden gespeichert, und Algorithmen bewirken, dass einem immer mehr vom „Gleichen“ angezeigt wird. Bei sozialen Netzwerken wie Facebook ist dieses Phänomen besonders stark zu beobachten, wo sich sogenannte Echokammern bilden, in denen die eigene Meinung ständig bestätigt wird. Ebenso bekannt ist in diesem Zusammenhang der Begriff der Filterbubble, also Filterblase (vgl. Pariser 2011). Diese entstehen zum einen aufgrund technischer Funktionalitäten wie den beschriebenen Algorithmen, zum anderen sind sie bedingt durch soziale Filterung: Nutzer*innen wählen ihre Kontakte und die Personen beziehungsweise Seiten, denen sie folgen, selbst aus – dieser Auswahlprozess wird durch soziale Homophilie dominiert, d.h. wir folgen meist jenen Personen, die uns ähnlich sind und unsere Interessen und Ansichten teilen (vgl. Pfeffer/Zorbach 2015: 132). Das kann zur Überzeugung führen, dass es sich bei der eigenen Haltung um eine Mehrheitsmeinung handelt. Aus diesem Grund war auch der vor kurzem verstorbene Soziologe Zygmunt Bauman pessimistisch was das Potenzial sozialer Medien betrifft. Diese würden uns nicht den Dialog lehren, weil es dort so einfach sei Kontroversen zu vermeiden. Die meisten Menschen würden soziale Medien nicht verwenden, um ihren Horizont zu erweitern, sondern um sich selbst in eine Komfortzone zu begeben, wo sie lediglich Echos ihrer eigenen Ansichten wahrnehmen würden (vgl. elpais.com). Wenn der eigenen Meinung überhaupt nicht mehr widersprochen wird, erhöht sich die Gefahr der Radikalisierung und der Spaltung der Gesellschaft. Der Verfassungsschutzbericht 2015 widmet dem Thema Hasskriminalität im Internet einen Fachbeitrag und warnt ebenfalls vor dem „System der automatischen Inhaltsgenerierung, die im Kontext mit vorurteilsmotivierten Delikten eine besondere Rolle spielt und vielen Usern nicht bewusst ist“ (vgl. Verfassungsschutzbericht 2015: 39).
Die technische Ebene wird insgesamt für User*innen immer undurchschaubarer. Die erwähnten Algorithmen, die natürlich nicht nur von Facebook, sondern auch von anderen Sozialen Netzwerken und Internet-Suchmaschinen (z.B. Google), sowie Online-Diensten (z.B. Amazon, Netflix) und News-Seiten (z.B. Yahoo News) verwendet werden, sind nicht transparent und werden von den Netzwerken nicht offengelegt. Dies ist insofern problematisch, als dass die Konzerne und Softwareentwickler*innen, die hinter den jeweiligen Plattformen stehen, als Architekt*innen ebendieser wesentlichen Einfluss darauf nehmen, wie kommunikative Prozesse innerhalb ihrer Netzwerke ablaufen (vgl. Schmidt 2012: 8). Ihnen kommt dementsprechend Macht zu – eine Tatsache, die aus demokratiepolitischer Sicht zunehmend hinterfragt wird. Wie Schmidt schreibt, ist „die Frage nach Teilhabe und Gestaltung der sozialen Medien […] auch deswegen so drängend, weil es sich um Infrastrukturen für gesellschaftliche Öffentlichkeit, aber eben nicht um öffentliche Infrastrukturen handelt“ (ebd.). Unternehmen haben ein Interesse daran, Daten über ihre Nutzer*innen zu sammeln, um diese gegenüber Werbetreibenden entsprechend vermarkten zu können (ebd.).
Die Algorithmen von Facebook sind zwar nicht transparent, offensichtlich ist aber, dass Beiträge mit vielen Interaktionen (Likes, Kommentare, Teilen) besser sichtbar werden, d.h. dass emotionale Beiträge, die viele Reaktionen auslösen, bevorzugt werden. Das Ziel dahinter ist, dass User*innen möglichst lange auf Facebook bleiben und so möglichst viel Werbung angezeigt bekommen. Häufig werden aber dadurch besonders aggressive Beiträge, die nicht nur Zustimmung, sondern auch viele ablehnende Kommentare mit sich bringen, besonders sichtbar gereiht (vgl. brodnig.org).
Darüber hinaus stellt das Phänomen der sogenannten Social Bots eine ernstzunehmende Gefahr für die Demokratie dar, auch wenn es im deutschsprachigen Raum noch weniger verbreitet ist als beispielsweise in den USA. Dabei handelt es sich um Software-Roboter, die in Sozialen Netzwerken automatisiert menschliches Verhalten simulieren, indem sie mithilfe von so genannten Fake-Profilen Beiträge liken, retweeten, kommentieren und sogar eigene Beiträge verfassen. Die Sichtbarkeit von Beiträgen wird damit beeinflusst, und Informationen werden mehr oder weniger stark verbreitet. Social Bots beeinflussen dadurch die Meinungsbildung. Simon Hegelich analysiert in einer im September 2016 veröffentlichten Studie, wie Social Bots bei Themen wie dem Brexit (EU-Austritt Großbritanniens), dem Ukrainekonflikt und im US-Präsidentschafts-Wahlkampf 2016 in den Meinungsbildungsprozess eingegriffen haben (vgl. Hegelich 2016). Er spricht vom sogenannten „Bot-Effekt“ und hebt hervor, dass Trends in hohem Maße von Social Bots manipuliert sind und dies politische und wirtschaftliche Entscheidungsprozesse beeinflussen kann. Aus diesen Gründen stellen social bots eine große Gefahr dar. Sie verstoßen zwar gegen die Nutzungsbedingungen von Twitter und anderen Netzwerken, man kann sie aber nur schwer bis gar nicht erkennen.