Účel – Prudký rozvoj informačních technologií spolu se sociálními sítěmi vytvořil bezprecedentní prostředí, ve kterém jsou dezinformace a s nimi spojované informační operace povýšeny na velmi účinné a devastující zbraně hromadného ničení. Účelově vedená dezinformační kampaň v kyberprostoru již dnes dokáže ovlivnit výsledky demokratických voleb na úrovni světové velmoci. Jedná se proto o velmi závažné celospolečenské téma a problém, u kterého dosud neexistuje účinná obrana. Naším cílem je zmapovat aktuální přístupy boje proti dezinformaci z pohledu provozovatele technologických platforem, které jsou pro šíření dezinformace zneužívány, a navrhnout jednoduchý kategorizační model obranných informačních strategií. Design/metodologie/přístup – Hlavní otázkou, kterou si klademe, je, jak vlivné technologické společnosti ve svých procesech, nástrojích a vizích dalšího produktového směřování reagovaly na událost prezidentských voleb v USA v roce 2016. Svou pozornost zúžíme pouze na oblast sociálních sítí a sledované období uzavřeme březnem 2018. Tato teoretická práce bude založena na následujících metodických postupech: a) Dokumentová analýza primárních zdrojů publikovaných jednotlivými sledovanými technologickými společnostmi. b) Mediální analýza zpravodajských zdrojů, které situaci komentují jak z pohledu informační strategie, tak i z pohledu různých sociokulturně-politických "spouštěčů". Výsledky – Na základě analýzy sledovaných technologických společností a sociokulturně-politických "spouštěčů" jsme stanovili základní kategorizaci informačních strategií boje proti dezinformaci a promítli ji do první verze funkčního modelu, jaký dosud ještě nebyl pro tuto potřebu vytvořen. Z dílčích strategií se jako nejnosnější prokázala strategie postavená na automatizovaných fact-checking systémech s podporou umělé inteligence. Originalita/hodnota – Mediátorům obsahu, tedy vydavatelům a jejich redakcím, je již v současnosti věnováno mnoho pozornosti v řadě studií a analýz, které navazují na rozsáhlý historický výzkum v oblasti vývoje médií a komunikace. Na druhou stranu rovina informační strategie provozovatele komunikační platformy, na kterou se v naší analýze zaměřujeme, je v tomto kontextu online světa novou a dosud nepříliš probádanou oblastí, která přináší nové otázky a výzvy s ohledem na řízení těchto platforem z perspektivy oborů informačního managementu a informační politiky.
Purpose – The rapid development of information technologies with social networks has created an unprecedented environment in which disinformation and related information operations are recognized as very effective and devastating weapons of mass destruction. A purpose-driven disinformation campaign in cyberspace is able to influence results of democratic elections at the level of the world superpower. This is a very serious social issue and a problem for which there is no effective defense yet. Our objective is to map current approaches to combating disinformation from the viewpoint of technology platform operators whose platforms are misused to spread misinformation and suggest a simple classification model of defensive information strategies. Design/methodology/approach – Focus is laid on how influential technology companies reacted to the landmark of the US presidential elections in 2016 in their processes, strategy and product visions. Our attention is limited to the area of social networks and limited by March 2018. This theoretical work is based on the following methodological approaches: a) Document analyses of primary sources published by individual companies being monitored. b) Media analyses of news sources covering situation from an information strategy viewpoint as well as the socio-cultural political context and triggers associated with this phenomenon. Results – Based on the analyses of selected technology companies and socio-cultural political triggers we have defined a simple classification of information strategies for combating disinformation in online platforms. With this classification we derived a first version of a functional model, that hadn’t existed before. Strategy based on automated fact-checking systems with the support of artificial intelligence proofed to be the most vital. Originality/value – Content mediators, publishers and their editors, have already received a significant amount of attention in many studies and analysis following a vast historical research in the area of media and communication. On the other hand, the view of the information strategy of a communications platform operator, which we are focusing on in our work, is in this context of the online world a new and still not very well researched area that brings new questions and challenges regarding the platform management from the perspectives of information management and information policy.
dezinformace; informační operace; informační strategie; boj proti dezinformaci; komunikační platformy; analýza informačních strategií; model informačních strategií proti dezinformaci; klasifikace informačních strategií proti dezinformaci; hoax
disinformation; information operations; information strategy; war against disinformation; communication platforms; analyses of informatic strategies; model of information strategies against disinformation; classification of information strategies against disinformation; hoax
[2] Allcott, H., & Gentzkow, M. (2017). Social Media and Fake News in the 2016 Election. Journal Of Economic Perspectives, Spring 2017(Volume 31, Number 2), 26.
[4] Armistead, L. (2010). Information operations matters: best practices. Washington, D.C.: Potomac Books.
[5] Aro, J. (2016). The cyberspace war: propaganda and trolling as warfare tools, 12.
[6] Babakar, M., & Moy, W. (2016). The State of Automated Factchecking: How to make factchecking dramatically more effective with technology we have now, 36.
[13]
Fake News Challenge: Exploring how artificial intelligence technologies could be leveraged to combat fake news. [Online]. Retrieved April 01, 2018, from
http://www.fakenewschallenge.org/
[14] Ferrara, E. (2017). DISINFORMATION AND SOCIAL BOT OPERATIONS IN THE RUN UP TO THE 2017 FRENCH PRESIDENTIAL ELECTION. Information Sciences Institute, 33.
[15] Fredheim, R. (2018). ROBOTROLLING. Litva: NATO STRATEGIC COMMUNICATIONS CENTRE OF EXCELLENCE.
[16] Friedman, G. (2015). Ohrožená Evropa: rodící se krize. Praha: Aligier s.r.o. společně s Nakladatelstvím Tomáš Krsek.
[19] Giles, K. (2016). THE NEXT PHASE OF RUSSIAN INFORMATION WARFARE, 16.
[20] Giles, K. (2016). Russia's 'New' Tools for Confronting the West: Continuity and Innovation in Moscow's Exercise of Power. Russia And Eurasia Programme, 73.
[21] Giles, K. (2016). HANDBOOK OF RUSSIAN INFORMATION WARFARE. Fellowship Monograph, 90.
[24] Gorwa, R. (2017). Computational Propaganda in Poland: False Amplifiers and the Digital Public Sphere: Computantional Propaganda Research Project (1st ed.). UK: University of Oxford.
[28] Howard, J. G. (2015). Information Operations and the Islamic State (Master's Capstone Theses). Charles Town, WV.
[30] Jowett, G., O'Donnell, V., & Jowett, G. (c2012). Propaganda & Persuasion (5th ed). Thousand Oaks, Calif.: SAGE.
[32] McCullagh, D.
Obama Harvested Data from Facebook and Bragged About It. Why Are We Only Freaking Out About This Now?: Why are politicians now freaking out about a feature that has been publicly documented since its inception and that was discontinued three years ago? [Online]. Retrieved March 25, 2018, from
http://reason.com/archives/2018/03/23/cambridge-analytics-dust-up-reveals-lawm
[35] Morris, I. (2017). K čemu je dobrá válka?: konflikty a pokrok civilizace. Praha: Argo.
[43] Robert B. Cialdini. (2007). Influence: the psychology of persuasion (Rev. ed.). New York: Collins.
[52] Taplin, J. T. (2017). Move fast and break things: how Facebook, Google, and Amazon cornered culture and undermined democracy. New York: Little, Brown and Company.