Nikolay Rubanovsky , Ksenia Krivtsova
De nombreux livres et articles scientifiques ont dĂ©jĂ Ă©tĂ© Ă©crits sur le thĂšme de la vĂ©rification des informations, des fausses nouvelles et des thĂ©ories du complot. Cependant, la situation actuelle avec une pandĂ©mie (ou «infodĂ©mie», comme l'a appelĂ© l'OMS) a montrĂ© que beaucoup d'entre nous, utilisant les fruits de centaines d'annĂ©es de mĂ©thode scientifique et de recherche chaque jour, pensent toujours en termes de magie scientifique, oĂč les ondes radio et le gingembre peuvent faire n'importe quoi. , n'importe quoi.
Tom Radetzki
( ) ( ââ ). , ( , , 5G, ).
, , FakeNews Euvsdisinfo. WhatsApp . , - COVID-19 . , - . , , . ? , , ( â â), , ?
.
, , .
, , . , âfake newsâ âfact-checkingâ .
, . , , . , , . , , ââ.
â âÌâ (. fake â ). , , . fake news (. news â ) â Ì , - , ( -, ). «» , . , , , . , ( ) . - . , , . , , , , . , Ì . Ì . , - .
Ì , PR-. , - . , . - .
2 31% Ì Ì . 74% , , , . 96% .
Ì 75% . 2 , : . , , . . â . .. . Ì Ì 100%. .
, , , Ì Ì . , , .
. â , , . , , . , . . , , ( , ), fake news . - . - « »: , . , . , . 70% plus Ă©levĂ© que la vĂ©ritĂ©. Et le faux se propage 6 fois plus vite (voir tableau ci-dessous).
Cela est dû au manque de contrÎle des informations: les informations sont publiées sans restrictions. Contrairement aux médias professionnels, dans les réseaux sociaux, les informations sont diffusées en dehors des éditions enregistrées et généralement sans référence à des sources autorisées a priori.Un point important: nous croyons volontiers que cela correspond à notre vision du monde et nous ne voulons pas forcer nos cerveaux à douter de la vérité des informations «alimentées».
Nous avons tendance à faire confiance à des sources familiÚres et à balayer l'inconnu, préférons des informations qui correspondent à nos opinions politiques ou à notre vision du monde. Nous croyons aveuglément ce que rapporte une source familiÚre et pouvons ignorer les informations diffusées par d'autres canaux.
, .
Arkaitz Zubiaga Heng Ji , Twitter. , . , , , Ì , .
.
De ce qui prĂ©cĂšde, la conclusion Ă©vidente se suggĂšre: nous devons cesser d'urgence toutes choses et nous engager sĂ©rieusement Ă vĂ©rifier chaque mot lu sur Internet. Mais prenez votre temps! Si vous n'ĂȘtes pas journaliste, une vĂ©rification complĂšte des faits peut prendre plusieurs heures (voire plusieurs jours dans certains cas). Par consĂ©quent, nous parlerons d'abord de faux marqueurs de nouvelles qui aideront Ă les distinguer des vrais lorsqu'ils sont vus briĂšvement. Pour ceux qui sont intĂ©ressĂ©s par le sujet et qui ont beaucoup de temps libre, il y aura des informations sur les mĂ©thodes de vĂ©rification des faits.
Selon quelles fonctionnalitĂ©s principales, on peut douter de la fiabilitĂ© des informations contenues dans un article ou un post sur les rĂ©seaux sociaux:- : , , . . - -, â , . - , .
- - : , , , .
- : , ? ? /? , - ? . , (, ), ?
- : ? Facebook, - ? - ? , ? , , , . , , .
- : - , ? «...», «- ...», « ...», Â«Ì ...», « ...», « ...», « ...», « ...» â â â.
- : YouTube. ? , - .
, :
- 3- . 100% , . Ì .
- . , -, , . , . , - . , , , . , , .
- â , . , .
- . ? ? ? ? ? - ? , (, RT) ââ , .
- . , ( , - , ..)? , , , , . , Ì . Ì , .
, :
- , ;
- «Google », Tineye.com. , , GDPR , . Tineye , , Ì. Jeffrey Friend Image Metadata;
- , , ;
- Ì , -, , WaybackMachine;
- WebMii Ì ;
- Snopes.com â Ì, , , Ì Ì Ì ;
- TruthOrFiction.com â Ì , , , ;
- FactCheck.org â Ì Ì. , , ;
- WikiTribune â Ì-, Ì Ì ;
- Politifact.com, FactChecker The Washington Post Ì .
. -, OSINT BBC.
, , . .
?
, , â :
â. , . , . , ?
1., , , - â , â. , adblockâ . . - , ââ ââ â 5G. ââ . , - , ( ). , . 5G, , , .
2. , . ââ, ââ, ââ. , , . , , . , 5G , : â 60 , - .â «» , . -, , . -, , , , , (- ). . -, ( ) ( ). -, 5G . , , , , .
, , , - . . , Spurious correlations , , , . , , 100% ! , , " ".
- . .
3. , . : , , , , , â . , â â .
4. â â â, , â â. , . 2017 European Journal of Social Psychology, . , â â, , . , . , . - - , , , . , . , , . - , ?
, ( ) , ââ. , ââ ( ) .
?
. , , , , , . , , . , .
Facebook â , , Facebook â â. â â. , , â â.
, , , . , ââ, â â , , â â. , , . , , ââ , , , !
, , , . , , , , . , . , , . , . 10 , , - . , , , - â, â. , . " â.
Comme dĂ©jĂ mentionnĂ©, argumenter avec la thĂ©orie du complot signifie perdre. Le mathĂ©maticien et philosophe anglais Bertrand Russell a fait une analogie pour illustrer le principe selon lequel la charge de la preuve incombe Ă l'approbateur. En d'autres termes, ce n'est pas vous qui devez prouver qu'il n'y a pas de gouvernement secret, mais un thĂ©oricien du complot doit prouver qu'il existe. Par analogie, Russell a proposĂ© d'imaginer qu'entre la Terre et Mars en orbite elliptique, une thĂ©iĂšre en porcelaine tourne, trop petite pour ĂȘtre dĂ©tectĂ©e par un tĂ©lescope. Il est impossible de prouver son absence, mais cela ne signifie pas, bien sĂ»r, qu'il est lĂ . Cela est conforme Ă un autre principe mĂ©thodologique - le rasoir d'Occam.. Il dĂ©clare qu '«il ne faut pas multiplier les choses inutilement». Autrement dit, si nous pouvons expliquer quelque chose grĂące Ă des informations dĂ©jĂ connues et vĂ©rifiĂ©es, nous ne devons pas ajouter de nouvelles inconnues Ă la thĂ©orie. Dans les thĂ©ories du complot, de telles inconnues peuvent ĂȘtre infinies. Appliquant cette analogie aux discussions religieuses, Russell, ironiquement, a lui-mĂȘme Ă©tĂ© victime d'une des thĂ©ories du complot d'assassinat de Kennedy.? â , . , , . , â- - â. , , . , . : . , . â .
, , - . .
, , . - â â , - . - , . ?
, . ? â . , . , . , .
â , â , , â. , . , , - - . , ?
Nous vivons Ă une Ă©poque oĂč la technologie permet d'attraper une personne dans un mensonge ou une erreur et de le signaler. Profitons de ces opportunitĂ©s, signalons-nous les erreurs et acceptons les critiques. Chaque contribution est importante. Si vous convainquez au moins une mĂšre des terribles consĂ©quences d'un refus de vaccination, cela sauvera beaucoup de vies.