Alexey Kapterev: Pensée critique 101 (partie 2)

Le 25 avril, dans le cadre de la «Journée de formation MSU 2020», Alexey Kapterev a fait une présentation sur la pensée critique. Nous vous présentons la partie 2 de la transcription de la conférence.

La partie 1 est disponible ici .



Il n'y a pas de réponse unique à cette question.

J'ai lu un livre de Joe Lau, professeur de Hong Kong, «An Introduction to Critical Thinking» (disponible en russe dans la bibliothèque de la Sberbank). Il décrit un processus en quatre étapes:

Types de preuves, généralement dignes de foi. Il n'y a pas de classement unique, mais je souligne:


Il y a une question que l'on me pose le plus souvent:


Il semble avoir deux questions distinctes:

  1. Qu'est-ce qui devrait convaincre le mieux? (Comment)
  2. Qu'est-ce qui convainc le mieux? (Comme c'est vraiment)

Je vais commencer par la deuxième question.


J'entends très souvent que les histoires sont les plus convaincantes. En fait, il n'y a rien de plus éloigné de la vérité. Dans certains contextes, ils sont convaincants, mais pour la plupart, les histoires sont les preuves les moins convaincantes. La plupart des gens sont convaincus par les statistiques et la logique.


Les histoires influencent l'intention. Les histoires motivent bien, mais ne convainc pas. La différence entre la persuasion et la motivation est à peu près la même que la différence entre les phrases: «je crois que fumer est nocif» (persuasion) et «je suis prêt à arrêter de fumer» (motivation).


Si nous voulons convaincre les gens de manière rationnelle, alors nous convainquons avec des statistiques, de la logique. Si nous voulons que les gens fassent quelque chose, nous devons leur raconter une histoire. Quelque chose de viscéral qui prend pour l'âme, pour le vivant.

Plus récemment, j'ai vu les résultats d'une nouvelle et très bonne méta-analyse:


Autrement dit, les gens ont tendance à prendre des décisions concernant leur santé en fonction des émotions. Pour certaines raisons. Bien qu'il me semble, c'est le dernier endroit où vous devez prendre des décisions sur les émotions.


On peut rappeler la métaphore de l'éléphant et du cavalier. L'éléphant aime beaucoup les histoires, le cavalier aime les statistiques ou la logique, cela dépend de qui nous parlons.


Commençons par la logique. La logique est extrêmement convaincante, maintenant je vais vous le prouver, voir:


Pensez une demi-minute. Si vous pensez qu'il n'y a pas assez de données, je peux parfaitement vous comprendre. J'ai fait cette astuce plusieurs fois avec différents publics, souvent il y a des gens qui pensent qu'il n'y a pas assez de données.

Voici ce que le sondage sur Habré a montré dans la partie précédente de l' article:

sondage


Ce n'est pas le cas, vous vous êtes trompé. Ne soyez pas offensé, je vais vous le prouver maintenant, ce n’est pas difficile.

Svetlana peut être mariée ou célibataire. Il n'y a que deux options. Si Svetlana, supposons, n'est pas mariée, mais que Maria la regarde, il s'avère que quelqu'un qui est marié regarde quelqu'un qui n'est pas marié.

Si Svetlana, au contraire, est mariée et qu'elle regarde Irina, il s'avère que quelqu'un dans le mariage regarde celle qui n'est pas mariée. Nous devons conclure que la bonne réponse est oui.

Si je ne vous dis pas la bonne réponse, en tant que groupe, vous serez dans un seul espace, et je vous quitterai, puis après un certain temps, les gens qui ont raison convaincront les gens qui ont tort.


Cette expérience a été effectuée plusieurs fois, cela fonctionne, mais il y a une mise en garde très importante. Vous n'êtes pas émotionnellement investi dans cette histoire, pour vous ce sont des étrangers, et en général, vous êtes prêt à finir par être d'accord avec la logique.

La logique fonctionne bien, convainc bien si les gens n'ont pas de fortes croyances préliminaires.


Il y a plusieurs problèmes de logique, ce sont des erreurs logiques que les gens font.


Dans la présentation au TED n ° 1, vous l'avez peut-être vu, «Les écoles tuent la créativité», il y a la logique du raisonnement selon lequel tous les enfants sont créatifs, Petya est un enfant, puis Petya est créatif. Ceci est une conclusion déductive. Il doit être fiable à 100%, il ne peut pas y avoir d'autres situations, mais il s'est avéré que vous devriez toujours commencer par les définitions.

Qu'est-ce que la créativité? Il s'avère que la créativité est la capacité d'avoir des idées qui ont de la valeur; à l'intérieur du discours, l'auteur lui-même donne cette définition. Autrement dit, nous n'avons rien à discuter ici.

Selon ce critère, les enfants ne sont pas du tout créatifs. Parce que nous pouvons regarder le nombre de brevets déposés pour les enfants, et nous pouvons constater qu'il y en a très, très peu.

Fondamentalement, les idées nées dans la tête des enfants n'ont aucune valeur. Dans le cadre de cette définition de la créativité, les enfants ne sont pas créatifs, et cela signifie que ce n'est pas un fait que Petya est créatif. Il s'agit d'un faux message lorsque nous tirons des conclusions sur la base de fausses hypothèses.

Les gens font souvent un raisonnement déductif. (La déduction est du général au particulier, nous avons une généralisation, puis nous faisons une sorte d'inférence sur la base de cela).

Voici un autre exemple d'erreur déductive:


Que font les tests de pensée critique? Ils vous forcent à achever la disparition, sur la base de quels prémisses cette conclusion a été tirée.

Et cette conclusion est tirée de la prémisse que tout ce qui n'est pas naturel est mauvais et qu'il est absolument faux, les villes ne sont pas naturelles, les barrages ne sont pas naturels. Pour les castors, les barrages sont naturels, mais pas pour les humains. Néanmoins, les villes et les barrages sont bons, pour moi c'est bon.

Et la troisième option, qui peut être des erreurs inductives. C'est à ce moment que nous accumulons beaucoup d'options, puis nous tirons une conclusion globale.


Après un certain temps, nous pouvons conclure que tout le monde est droitier, ce qui est complètement faux, il y a un grand nombre de gauchers et d'ambidextras. C'est une erreur typique que des personnes basées sur un échantillon limité tirent des conclusions globales et de grande portée. Erreur classique.

Certes, les psychothérapeutes disent qu'il y a maintenant une pandémie de dépression. Bien sûr, le thérapeute connaîtra une pandémie de dépression, car c'est la personne à qui s'adressent les personnes dépressives.


Bonne question.

En science, par exemple, en pharmacologie clinique, une hiérarchie de preuves similaire. Au sommet se trouvent les études de recherche, c'est-à-dire la généralisation d'un grand nombre d'expériences. Logiquement, nous comprenons que plus l'échantillon est grand, plus le résultat est fiable. Une étude est un non-sens complet, et lorsque vous avez une énorme quantité de matériel, un éventail de littérature, nous pouvons conclure qu'il est assez fiable. Bien sûr, ce qui est publié est généralisé.


La méta-analyse est l'une des sources les plus fiables.

Vient ensuite l'essai randomisé (classique) contrôlé par placebo. C'est alors que nous avons un groupe témoin et un groupe d'intervention.

Avec le groupe témoin, nous faisons quelque chose et avec le groupe d'intervention, nous faisons ce que nous voulons vraiment faire. Vous ne pouvez rien faire avec le groupe de contrôle, car les gens sont contrariés. Nous faisons une thérapie imaginaire avec un groupe et une vraie thérapie avec l'autre. Comparez ensuite les résultats.

Et toutes sortes d'études de cohorte, des études transversales, quand on observe des cohortes de personnes depuis longtemps. Par exemple, considérez tous les végétariens ou tous les plombiers. Ensuite, nous concluons que les plombiers sont enclins à ceci ou cela. Pas très fiable, faible évaluation de la fiabilité de l'étude.

Et tout en bas se trouve un cas isolé, sur la base d'un seul cas, nous ne pouvons que conclure que c'est ce qui s'est passé. Le cygne noir s'est produit, un événement unique s'est produit, mais dans l'ensemble, bien sûr, nous ne pouvons pas tirer de grandes conclusions sur la base d'un cas isolé.

Donc, approximativement, la hiérarchie des preuves fonctionne. Croyez aux grandes études, ne croyez pas aux cas particuliers. Bien sûr, notre éléphant fonctionne bien au contraire, croit dans des cas particuliers, mais ne croit pas aux statistiques.


Lors de l'analyse de la pensée critique, vous constaterez que les gens font un grand nombre d'erreurs logiques, car l'éléphant interfère avec eux.

L'erreur du survivant est quand, supposons que le tabagisme tue 99% des gens, et 1% survit, va marcher et dire à tout le monde que je ne fume rien pour moi. Bien sûr, c'est une erreur, il existe de nombreux exemples.

Est-il utile de les connaître, je ne sais pas. Lire à ce sujet est amusant. Est-ce que ça aide? J'ai de gros doutes.

J'ai vu quelques expériences pour combattre la distorsion cognitive. Les gens ont appris et ensuite regardé s'ils prenaient de meilleures décisions. Les résultats sont mitigés.

En tant que personne dans le monde des présentations, je m'intéresse aux distorsions logiques faites intentionnellement.


Transition vers la personnalité, personne au toit de chaume. C'est à ce moment-là que les gens se moquent de l'adversaire et disent que tous les conservateurs veulent interdire l'avortement, bien que ce ne soit absolument pas le cas.

Essayons quelque chose. Concernant Kipling, lisez son White Man's Burden. Kipling était raciste et impérialiste. Si vous aimez Kipling, alors vous êtes raciste.


C'est logique, en général, mais pas correct. C'est la faute de l'association, c'est un mauvais raisonnement inductif. Sur la base d'un seul travail, nous concluons sur les représentations globales de l'individu. Peut-être regrettait-il d'avoir écrit ce poème. Ensuite, nous transférons (l'analogie est une forme d'induction) les propriétés de Kipling aux propriétés d'une personne complètement différente.

Raisonnement logique très faible. Oui, les gens qui aiment Kipling peuvent être racistes et impérialistes, mais ces personnes sont susceptibles d'être une minorité.


Est-ce une justification logique?

C'est aussi une faible induction, nous avons une sorte de généralisation sur les boxeurs, nous savons que les boxeurs sont frappés à la tête et, probablement, si nous chassons les boxeurs des tests de QI, nous n'obtiendrons pas les résultats comme les lauréats du prix Nobel. Il s'agit de stéréotypes, il y a une fraction du raisonnable, mais ce n'est pas une conclusion fiable.


Est-ce un bon raisonnement? C'est également peu probable. Voler des retraités et facturer des factures de services publics n'est pas la même chose. Probablement, une partie des paiements pour le logement et les services communaux est effectuée par les retraités et, probablement, certains d'entre eux sont mal informés, mais il s'agit d'un très petit espace de la population. Ce n'est guère un argument raisonnable. La grande majorité des gens sont plus susceptibles d'être heureux d'avoir la possibilité de payer pour le service fini.


Nous savons qu'il existe un faux dilemme. Mais ici, j'ai peur que ce soit un vrai dilemme, c'est vraiment le cas. Il n'y a pas d'autres options. Au moins, je n'ai pas pu trouver. Je ne pense pas que vous puissiez faire quelque chose pour boire 6 canettes de bière par jour et ne pas gagner de cirrhose. Vous devez avoir un foie particulièrement bon pour éviter que cela ne se produise. Cela se produira très probablement.


La logique est très convaincante, mais si les gens n'ont pas d'investissements émotionnels prêts à l'emploi dans la solution.

La question est toujours "quelle est la force de l'argument?" Ceux. Quelle est la validité de ces généralisations inductives? En ce qui concerne la base, l'échantillon que nous avons, nous permet de faire de telles généralisations sur les boxeurs, supposons.

Et les prémisses et les hypothèses cachées sont-elles vraies? Fondamentalement, les tests de pensée critique ne font que l'analyser. Combien de fois ai-je vécu là-bas, ils enseignent à mettre en évidence des hypothèses cachées. Vous pouvez les parcourir, juste pour vous entraîner.

Je peux recommander ce livre: "Harry Potter et les méthodes de la pensée rationnelle." Je ne suis pas sûr que vous puissiez le trouver sur papier, mais il est certainement sous forme électronique.


Regardez, elle est très cool. Il s'agit d'une fan fiction, où Harry Potter arrive au début de sa carrière non pas aux vils Dursley, mais aux scientifiques qui lui enseignent la pensée critique rationnelle. Il arrive à Poudlard et commence à y recuire. Livre très intéressant.


Peut-être que vous avez entendu, peut-être pas, il y avait un tel vélo sur le programme spatial américain.


Dans l'espace, il y a un problème d'absence de gravité, de sorte que le stylo à bille traditionnel n'écrit pas dans l'espace. Parce que l'encre qui s'écoule s'écoule sous l'influence de la gravité.

Et donc, prétendument, des millions de dollars infernaux ont été investis en Amérique et ils ont créé un stylo qui écrit en gravité zéro. Et ils l'ont distribué à tous les astronautes, et ils ont écrit avec ce stylo.

À cette époque, les cosmonautes russes et soviétiques utilisaient un crayon sur le programme spatial soviétique.


C'est un non-sens absolu. Tout d'abord, même sur la photo, on peut voir que c'est un vrai stylo, il existe vraiment. Certes, il a été fait par une société privée pour une partie de son argent, c'est-à-dire peu importe, ce n'est pas l'argent des contribuables.

Mais l'essentiel est que le programme spatial soviétique a acheté ces stylos aux Américains, car écrire au crayon n'est pas une bonne idée. Le crayon s'effrite, la poussière de carbone apparaît, conductrice, elle commence en gravité zéro à voler et à se déposer de façon imprévisible sur l'équipement. En général, écrire au crayon en gravité zéro n'est pas une bonne idée.

Je l'ai découvert juste en cherchant sur Google. J'ai tapé "stylo espace", entrez, et je me suis retrouvé assez rapidement sur un site appelé snopes.com. Je peux le recommander, c'est l'un des meilleurs sites de vérification des faits au monde. Et il y a une analyse détaillée de ce qui est vrai et de ce qui ne l'est pas. Et de nombreuses histoires, devinez-vous, sont en partie vraies, en partie mensongères.


Je recommande fortement de vérifier les histoires avant de les raconter à quelqu'un, surtout lors d'un discours public. La précision des histoires est toujours en question. Les histoires changent de façon imprévisible en racontant, les gens oublient quelques fragments, insèrent quelque chose qui n'était pas là, parce qu'ils veulent vraiment que ce soit. En général, la survie d'une histoire est sa capacité à produire un effet wow. Plus elle produit un effet wow, plus les gens le racontent.

À la limite, toute histoire se transforme en une sorte de légende urbaine à propos d'énormes rats dans les égouts, des crocodiles y vivent. Les gens aiment le raconter. Apparemment - c'est une sorte d'essence de l'histoire, en tant que genre. Ils fonctionnent comme ça, et il n'y a rien à faire à ce sujet.


Je veux dire que les histoires motivent parfaitement les gens. Je vous ai déjà donné les résultats d'une méta-revue. Ils influencent grandement les attitudes des gens. Les gens aiment écouter des histoires et les histoires les motivent. Mais comme preuve, bien sûr, c'est un non-sens complet.


Dans la hiérarchie des preuves, l'histoire se situe tout en bas. L'histoire est un cas clinique. C'est la même histoire, mais elle est bien cadrée. Un cas clinique est une histoire dans laquelle tout est vérifié. Il est enregistré, il existe une source, et lors de la relecture, il est possible de vérifier avec elle.

La plupart des histoires, bien sûr, ne sont que des histoires qui sont racontées.

Les histoires doivent être utilisées pour expliquer quelque chose aux gens, comme des illustrations, des analogies. Les histoires sont souvent utilisées pour signaler un incident critique.


Ceux. La première fois qu'un coronavirus a été signalé, il s'agit d'un cas clinique. Ce n'était pas une sorte d'étude gigantesque. Incident critique. Eu lieu. Ou le même ebola.

Projet pilote, voici le lieu de l'histoire. Pour la motivation, je l'ai déjà dit. Les histoires motivent, bien que les preuves soient telles.

Les études de cas fonctionnent dans certains domaines pratiques. Les avocats apprennent à parler de cas, dans les affaires, ils utilisent souvent la méthode des cas, et en médecine aussi. Mais, encore une fois, ce sont des cas isolés.


Apprendre à raisonner est bon dans les histoires. Vous faites l'histoire, et il devient clair où les gens ont fait des erreurs.

S'il vous plaît, si vous racontez des histoires de la scène, vérifiez les détails. Je recommanderais de m'asseoir presque à chaque fois et de relire comment tout était vraiment là.

La mémoire échoue beaucoup, la mémoire ne fonctionne vraiment pas bien. Chaque fois que vous racontez, il y est réécrit d'une manière nouvelle, et plusieurs fois je me suis retrouvé à raconter quelque chose qui n'a plus rien à voir avec la réalité.


Je vais citer Karl Sagan, il y avait un si grand astronome américain et vulgarisateur scientifique:


Appliquons la pensée critique à la même phrase, en fait. Quel est son problème? Et la première chose que nous pouvons dire est l'opinion de l'autorité. Autrement dit, nous avons le paradoxe d'un menteur, nous ne devons pas lui faire confiance, car c'est l'opinion de l'autorité.

Et le deuxième problème avec cette phrase, qui pensez-vous que Karl Sagan a abordé? Quel était le public cible de cette phrase, des gens ordinaires ou d'autres scientifiques? Et la réponse est d'autres scientifiques. Les scientifiques ne doivent pas faire confiance aux opinions des autres scientifiques.

En tant que gens ordinaires ou scientifiques dans d'autres domaines, nous n'avons souvent pas d'autre choix. On ne peut pas dire "mais je ne crois pas qu’ils aient ouvert le boson de Higgs, je vais aller dans la cour, y diriger mon propre collisionneur et le vérifier." Ça ne marche pas comme ça.

Il y a des gens qui ont des collisionneurs, des boîtes de Pétri, des microscopes et tout le reste. Ils sont plus susceptibles que les blogueurs d'Instagram de savoir comment. Un tel fait de la vie, rien ne peut être fait à ce sujet.


Le problème avec la citation est que, premièrement, c'est l'opinion de l'autorité, et deuxièmement, qu'elle s'adresse aux scientifiques. Si vous n'êtes pas un expert, vous devrez utiliser les avis d'experts, vous n'irez nulle part. Vous-même ne comprendrez pas tout, aucune vie ne suffit pour cela.


Un expert doit être, d'une part, dans son domaine d'expertise, et d'autre part, il doit dire quelque chose qui découle des études qu'il a menées.

Un expert peut également résumer son expérience, clinique, pratique, managériale, etc.


Il y a beaucoup moins de confiance là-dedans. Parce que ce n'est pas une expérience, c'est une collection d'histoires, d'histoires, c'est-à-dire il a eu des situations dans sa vie, il les a généralisées, c'est extrêmement peu fiable.

Marteau et clous, si vous avez une sorte d'outil dans la main, vous commencez à l'utiliser partout, et dans certains cas, cela fonctionne, cela signifie que cela fonctionne, par exemple, dans 12% des cas, cela ne signifie pas qu'il fonctionne toujours, cela ne signifie pas qu'il est au moins quelque peu fiable. Tu as juste eu de la chance. Nous avons déjà trié «l'erreur du survivant», l'effet d'échantillonnage y est similaire.

Quels autres problèmes avec les devis?


Premièrement, le plus gros problème est que les gens dénaturent les devis. Ça arrive juste en continu, je me suis pris tellement de fois. La seconde est que les gens citent des experts en dehors du champ de l'examen, c'est-à-dire astronome, mais ils citent le coronavirus, mais ils ne le comprennent pas, c'est-à-dire c'est un scientifique respecté dans son domaine, mais ce n'est pas de l'astronomie. Et troisièmement, ils utilisent des citations de lauréats du prix Nobel sur certains sujets philosophiques généraux, que personne ne comprend du tout.

Le devis est-il exact?

Il y a quelques semaines, je me suis personnellement rendu compte que j'avais cité Frederick Taylor, le fondateur de la gestion scientifique.


Il est mis en évidence en gras "communication forcée". J'avais un sujet sur la communication et je l'ai utilisé. Il y avait dans l'original «coopération».

Je ne me souviens absolument pas où j'ai obtenu cette citation. Soit il y a eu une erreur dans la traduction, soit j'ai traduit et j'ai fait une erreur, parce que c'était très pratique pour moi, mais cela arrive.

Veuillez vérifier vos devis à la source. La traduction souffre beaucoup, en plus, les gens ont tendance à mal interpréter parce que l'erreur est en confirmation.


Il existe un tel site appelé quoteinvestigator.com , je peux le recommander, il s'avère souvent que vous citez une citation d'Einstein, mais en fait, il s'avère que c'est une citation d'une personne complètement différente et inconnue qui ne veut pas du tout citer.

Deuxièmement, une question très importante est de savoir si la demande relève du domaine d'expertise de l'expert.

J'ai 44 ans et j'ai trouvé l'annonce sur la vitamine C du Dr Linus Pauling. Il s'agit de l'une des premières publicités télévisées diffusées à la télévision soviétique. Il y avait un tel Linus Pauling, lauréat du prix Nobel de chimie, et le deuxième prix Nobel a reçu, à mon avis, le prix de la paix. Pas important. En chimie, il a reçu un prix indivis. Imaginez, il l'a reçu seul. La plupart des prix Nobel se présentent en équipes. Scientifique très cool, chimiste très cool.


Dans sa vieillesse, il est devenu fou et a dit que la vitamine C est un remède contre toutes les maladies, prolonge la vie, et pour le prouver, il a vécu longtemps, n'est pas mort, comme s'il confirmait avec son propre exemple que la vitamine C fonctionne.

En réalité, la vitamine C ne prolonge pas du tout la vie, à fortes doses elle est nocive. Il est très important de se rappeler qu'un expert en chimie n'est pas un expert en médecine, c'était un chimiste absolument brillant, mais absolument aucun médecin.


Quelqu'un Jeremy Rifkin. Qui c'est? Economiste et théoricien social. C'est douteux.


Une lettre ouverte signée par 154 lauréats du prix Nobel. Une source un peu plus fiable, oui, mais Fry, à l'esprit critique, devrait demander: «Que sont ces lauréats du prix Nobel? De quelles régions viennent-ils? »


Je suis allé sur le site, j'ai regardé, la plupart d'entre eux sont en médecine, il y en a en chimie, et très peu de lauréats du prix Nobel du monde l'ont signé, pour une raison quelconque. Je ne sais pas pourquoi. Il semble assez fiable, ce n'est pas mal, disons-le.


Wikipédia est une bonne source de consensus scientifique, aussi ridicule que cela puisse paraître, mais surtout en anglais. Précisément parce qu'il est facile à éditer. Là-bas, il est très difficile pour les modifications de merde de survivre car elles sont bombardées de tous les côtés. Wikipedia montre des résultats statistiquement très bons.

Je m'intéressais à un sujet ici, désolé, c'est de l'histoire, bien sûr, pas une preuve. Je suis d'abord allé sur Wikipédia et j'ai trouvé un bon article équilibré là-bas, puis je suis allé à l'Encyclopedia Britannica et j'ai trouvé un biais très fort d'un côté. Je suis d'accord avec ce côté, mais l'article est très unilatéral.

Mais il y a des preuves, vous pouvez le voir. Il y a des gens qui ont analysé l'exactitude de Wikipédia et, disons, l'Encyclopedia Britannica, il s'avère que Wikipédia n'est pas moins fiable.


Ici, nous devons nous poser la question: "Qui et comment a mesuré ce consensus?" Question très importante.


Il y a eu plusieurs études, elles montrent des résultats différents, mais au moins 91%. 91% est très bon.

En général, bien entendu, la science ne doit pas rechercher un consensus. Nous ne comprenons pas la climatologie et il n'y a aucun espoir que nous comprendrons, cela prendra environ 10 ans, donc, très probablement, il sera raisonnable pour nous de faire confiance aux climatologues.

Et la dernière question est "Le domaine d'expertise existe-t-il en principe?" Par exemple, voici une citation d'Einstein. Je dirai tout de suite que c'est faux. Il n'a jamais dit cela, mais ce n'est pas le sujet. Le fait est, de quoi s'agit-il? Ceci n'est pas soumis à examen. Il s'agit d'une sorte de déclaration morale abstraite. Tout le monde peut dire n'importe quoi.


Ou, ici aussi, une citation absolument fausse. Ce n'est qu'un effet d'échantillonnage.


Nous regarderons un grand nombre de millionnaires et y trouverons toujours des gens très étranges qui font des choses très étranges. Cela ne signifie pas que tout le monde peut le faire. Il se pourrait bien que Bill Gates mange vraiment 2 bananes par jour, pourquoi pas.


Et la chose la plus importante que vous ayez.


Herbert Wells a dit un jour que si nous voulons que les citoyens prennent des décisions éclairées lors des élections, nous devons éduquer tout le monde en termes de statistiques.


Mon histoire est liée aux statistiques: j'ai pensé une fois que la nature d'une personne, sa prédisposition ne dépend pas de la génétique. Ensuite, j'ai lu un très bon livre, très équilibré, il est déjà environ 20. J'ai récemment lu sa dernière critique - comme avant, la plupart de ce qu'il contient est vrai.


La question a été posée là: nous avons des parents agressifs, ils ont des enfants agressifs. Le point de vue dominant - l'éducation rend les gens agressifs. Les parents agressifs traitent les enfants afin qu'ils deviennent également agressifs. Serait-ce pour une autre raison?

Judith Rich Harris, l'auteur du livre, a posé 2 questions:
  1. Serait-ce dû à l'école?
  2. Serait-ce dû à la génétique?



Peut-être que les parents agressifs vivent dans des régions où il y a une «guerre» et c'est pourquoi ils ont des enfants agressifs? Peut-être que les parents agressifs transmettent génétiquement leur agression à leurs enfants?


Environ 49% est l'héritabilité du caractère. Les enfants en famille d'accueil sont complètement différents des parents d'accueil. Vous prenez le parent adoptif et la personne au hasard dans la rue - exactement la même corrélation. Aucune différence. La parentalité a un effet assez faible sur le caractère (de 5 à 15%). Principalement influencé par l'école et la génétique. C'est triste, mais la bonne nouvelle, c'est que 49%, c'est encore moins de 50%, la plupart sont entre nos mains.


Les statistiques fonctionnent très bien contre les collectionneurs d'histoires, les théoriciens du canapé et les personnes ayant de l'expérience. J'essaie de tout sur Google, Google Scholar est mon grand ami.



Supposons que j'ai besoin de savoir si l'humour affecte la crédibilité d'une présentation. Les gens me posent souvent des questions sur l'humour lors des formations. L'humour est-il utile, nocif, l'humour retient-il l'attention? Et la question commune est, comment cela affecte-t-il la persuasion, l'humour convainc-il?


Je vais sur Google Scholar, je tape "persuasion humoristique" et j'ajoute le mot "méta" parce que les méta-critiques m'intéressent. Littéralement sur la deuxième ligne, je vois une méta-analyse complètement nouvelle de 2018, ce n'est qu'un rêve. C'est dans le domaine public, gratuitement. Je clique dessus, je lis un résumé et, en principe, je ne peux même pas lire l'article en entier.


En résumé, ce qui se passe est clairement visible. L'humour a un faible effet sur le pouvoir de persuasion - 0,13. 0,13 doit être au carré, il se révélera très peu, c'est-à-dire presque aucun effet sur la persuasion de l'humour. Vous pouvez l'oublier, comme un moyen de convaincre quelqu'un.



Ensuite, je peux faire défiler le graphique et voir qu'il y a une courbe inversée, c'est-à-dire un peu d'humour est bon, beaucoup d'humour est mauvais, très peu d'humour est également mauvais. Ceux. un peu d'humour, un peu d'influence, voilà mon résultat. Très pratique, j'ai rapidement obtenu une réponse à ma question.


Récemment, il y a 2 ans, j'ai suivi un cours à l'Université Carnegie Mellon. Cours de conseil et de gestion en ligne fondé sur des preuves. On leur a appris à évaluer la probabilité que l'étude soit correcte, et il y avait un tel signe que des études systématiques, le niveau de confiance est A +, 95%. Et la recherche qualitative est de 55%, tout en bas.


Ceux. en général, c'est une bonne idée d'attribuer des notes à votre niveau de confiance, et la méta-étude obtient un niveau de confiance très, très élevé.

Mesurez le niveau de votre confiance. Sans doutes raisonnables - 95%, suspicion raisonnable - 20%. Ceux. en regardant une sorte de recherche scientifique, il suffit de la peser sur la «balance». Nous n'avons pas besoin d'une certitude absolue, la pensée critique est que vous n'êtes convaincu à 100% de rien.


Jeff Bezos est le PDG d'Amazon et l'une des personnes les plus riches du monde. Même si vous gérez une grande entreprise, vous ne prenez également de décision que lorsque vous êtes sûr à 100%. Une confiance de 70% suffit, et il me semble que c'est une caractéristique très importante des gens, une telle tolérance à l'ambiguïté et la capacité de prendre des décisions sous-estimées.


Toutes les informations qui entrent tombent d'un côté ou de l'autre de la balance. Il confirme ce que nous avons ou le réfute. Et à un moment donné, la tasse l'emporte dans un sens et à un moment dans l'autre.

Jouons un petit jeu pour explorer ce processus. Regardez, j'ai une petite amie, devinez sa taille.

Vous devez maintenant nommer le plus probable. Et, peut-être, vous savez que la taille moyenne des femmes dans notre pays, ou vous pouvez le deviner, est de 1,65 m. Votre meilleur pari est de 1,65 m.

Je vais vous donner les informations maintenant, elle joue au basket. Et à ce moment, vous devez mettre à jour votre réponse, et dire "aah, alors, probablement, il est supérieur à 1,65."

À propos de la même chose que nous devrions faire avec toutes les preuves. La preuve nous vient, il faut la déposer sur la balance. Cela suggère que nous ne sommes pas bloqués dans des positions binaires oui / non, nous sommes constamment dans ce processus de mise à jour bayésien.

Un autre exemple:


Question: est-ce la preuve que l'intuition financière de Sergei existe vraiment?

Et la réponse, curieusement, oui. Ce ne sont pas de très bonnes preuves, ce n'est pas très solide, mais il faut le prendre et le mettre soigneusement sur la balance. Ceux. ce n'est pas ce qu'est vraiment l'intuition. Il peut y avoir un million d'autres raisons pour lesquelles Sergei vient de deviner, par hasard, il a eu de la chance. Nous devons regarder plus loin, sur la base d'un épisode, vous ne pouvez pas tirer de grandes conclusions. Mais ceci est une preuve et nous devons en tenir compte. La pensée statistique, c'est à ce sujet.

Quelques questions importantes qui, à mon avis, il est logique de se poser lorsque vous parlez avec des gens de la recherche scientifique, des statistiques.


Je ne propose pas une compréhension approfondie des statistiques. Je suis économiste de formation, j'ai eu deux semestres de statistiques, et je ne me souviens de presque rien de tout cela, je me souviens seulement comment calculer la corrélation. Mais je propose de me tourner vers des sources fiables où il y a une supervision à ce sujet.

Et le premier bien sûr, ce qui est une source fiable.


Ne pas raconter de nouveau. Si vous voyez le résultat de certaines recherches dans la presse populaire et que vous voulez le raconter à quelqu'un, avant de raconter à nouveau, trouvez l'original, voyez ce qui y est réellement écrit.


Les journalistes ont malheureusement souvent mal interprété. Le journaliste est aussi un homme, il peut se tromper, il a ses propres dogmes, il les confirme. Cherchez la source, c'est très très important.

Le deuxième enjeu important est le parrainage de la recherche.


Il existe un tel logiciel dans les présentations appelé Prezi. Il y a une étude réalisée à Harvard, un bon endroit. Ce qui dit que Prezi est meilleur, plus convaincant.


L'article ci-dessus dit «Correction», une sorte de correction. Vous regardez cette correction, et il s'avère que le sponsor de l'étude est Prezi. Le sponsor de l'étude, qui prouve que Prezi est bon, est Prezi.




Pas étonnant. Cela ne signifie pas que l'étude est complètement merdique, vous devez regarder. Harvard, comme avant, n'est pas mauvais, l'un des auteurs des études est Stephen Kosslin. C'est une personne très respectée en neurophysiologie, et il a un hobby, il explore les présentations. Ceux. c'est peut-être vrai. J'ai regardé, probablement, sur Skype Prezi est bon à utiliser.


Recherchez d'une manière plus récente. Surtout dans les sciences sociales, en psychologie sociale, il y a récemment eu une très grande crise de reproductibilité, et même la méta-analyse ne peut y faire confiance. Là, vous devez rechercher une réplication multilatérale préenregistrée, lorsque de nombreux laboratoires mettent simultanément la même expérience sur un grand échantillon, puis publier les résultats de manière indépendante. Ces études ont une confiance plus élevée que la méta-analyse, simplement parce que la méta-analyse analyse uniquement ce qui est publié.

Nous sommes donc arrivés à Albert Mergabyan et à 93% de la communication non verbale.


Google Albert Mehrabian, les chiffres sont bien googlé. Vous constaterez qu'une étude très ancienne, très mal faite, mais selon les normes de l'époque, c'est la norme des années 50, la psychologie sociale a beaucoup changé ces derniers temps.


Si vous ne voyez qu'une seule étude, c'est très pratique, car vous dites: "mais les scientifiques l'ont prouvé". Mais recherchez des méta-analyses lors de l'analyse d'un éventail d'articles sur un sujet, recherchez des revues thématiques, parcourez des tableaux d'articles.


Si vous voyez des sondages dans les études, demandez-vous si cette enquête sera fiable. Les enquêtes sont souvent peu fiables, en particulier dans la recherche marketing.


Cherchez des études où ils ont regardé le comportement des gens, et non pas ce qu'ils disent, c'est plus fiable, plus fiable.

Il y a un tel exemple anecdotique lorsque l'on demande aux gens combien d'heures vous regardez la télévision. Ils parlent 7 heures par semaine , et la boîte de Nielson, qui enregistre la «télévision», montre que 5 heures par jour , pouvez-vous imaginer?

Mais ni l'un ni l'autre n'est vrai, en fait. Parce que Nielson enregistre uniquement que le téléviseur est allumé, il n'enregistre pas ce que le téléviseur regarde réellement. Pour la plupart des gens, le téléviseur fonctionne comme une radio, ils rentrent à la maison, l'allument et cela fonctionne en arrière-plan. Et ils disent dans les sondages que nous ne le regardons pas. Mais cela ne signifie pas que l'enquête est correcte. La vérité est quelque part entre les deux, nous devons essayer de la trouver.


Ils disent souvent «effet significatif», ce qui signifie statistiquement significatif, c'est-à-dire c'est en fait un très petit effet. Si vous voyez le nombre R, il doit être carré. Ceux. là R est généralement inférieur à un, tu es au carré, il s'avère encore moins. Il s'agit du pourcentage des écarts expliqués. Ceux. 25% des résultats de travail sont attribués à la pensée critique. Pas 100%, pas 98%, mais pas 7%. Comment avons-nous obtenu 25%? Nous avons fait un carré de 0,5.


Veuillez rechercher des recherches fiables. Plus de 100 personnes dans l'échantillon sont normales, 25 sont mauvaises. Il est très facile d'obtenir un bruit aléatoire.

Il existe un tel simulateur par référence , où vous pouvez deviner par un certain nombre de paramètres si l'étude est reproduite ou non, à quel point elle est fiable.


Par exemple, il s'agit de déterminer si les gens peuvent deviner à partir de la position d'un joueur de tennis, à partir d'une communication non verbale, pour comprendre quelles émotions il éprouve sans voir son visage.

Ici p est la probabilité que ce résultat soit obtenu aléatoirement, très petit 0,000000000015. La taille de l'effet est de 0,961. Un très gros effet, mais dans le groupe il n'y avait que 15 personnes. Ici, sur 15 personnes pensez-vous que cela sera reproduit ou non? Il est reproduit ici, car un effet prohibitif et un effet prohibitif. S'il n'y avait pas un si petit p et pas un si grand effet, alors tout serait différent.


Évaluer la qualité de la publication: réputation du magazine, parrainage, facteur d'impact. Facteur d'impact - combien de fois les articles de cette revue sont cités, ils sont recomptés dynamiquement. Si le facteur d'impact du magazine 4 est un très bon magazine, 2,5 est un bon magazine. Parrainage, nouvelles recherches, méta-revues, fiabilité de l'enquête, ampleur de l'effet, nombre de participants.


Des erreurs se produisent toujours, c.-à-d. rien à croire, rien n'est fiable à 100%. Mesurez le niveau de votre confiance. Je vous suggère d'emprunter une échelle aux avocats américains, je l'utilise, combien de pourcentages êtes-vous sûr.


Les statistiques sont les meilleures preuves, les opinions d'experts sont des statistiques abrégées, les histoires sont des cas isolés, la logique de tout le reste est assez fiable, mais, bien sûr, en argumentant en étant assis sur une chaise, vous pouvez également faire une grosse erreur.

Je peux fortement recommander ce cours , il est en anglais, il n'y a pas de vidéo, il n'y a que du texte. Il est très bon, je l'ai passé avec grand plaisir. Pratique factuelle
en gestion et conseil - gestion et conseil factuels. Cela peut vous intéresser si vous travaillez dans une entreprise, si vous êtes gestionnaire ou consultant.

Et enfin, la dernière - alternatives. En général, nous avons déjà partiellement parlé de l'alternative, c'est la question: pourquoi peut-il en être autrement? Il y a une déclaration, nous en voyons des preuves, et nous devons nous demander: y a-t-il d'autres options? Permettez-moi de vous donner un exemple, il y a une telle question:


Selon vous, qu'est-ce qui est utile? Quelqu'un pense que c'est utile, quelqu'un pense que c'est nocif.

J'ai récemment vu les résultats d'une étude, c'est une méta-revue de bonne qualité, à mon avis subjectif. La plupart des études, en particulier des études de haute qualité, ont montré que ceux qui évitaient de manger de la viande présentaient des risques significativement plus élevés de dépression, d'anxiété et / ou d'automutilation.

Je traduis en langage humain: les personnes qui ne mangent pas de viande sont plus susceptibles de souffrir de dépression. La question se pose: à quelle fréquence? J'ai déjà oublié, mais il y a un pourcentage significatif, statistiquement significatif, pas très important, 10-20%, mais 10-20%, c'est encore beaucoup.

La pensée critique du premier ordre est quand nous nous disons, regardez, en général, la recherche sur la nutrition est très peu fiable, directement très peu fiable. Si nous commençons à généraliser des recherches peu fiables, nous obtenons un résultat peu fiable. La fiabilité de la méta-analyse basée sur les études de cohorte est faible, mais elle reste supérieure à la fiabilité de l'opinion du blogueur installateur. Certes, ici il faut comprendre que ce qui est imparfait, mais c'est mieux qu'une alternative. C'est très important.

La pensée de second ordre, c'est quand vous pensez, ou peut-être que les végétariens sont des personnes plus sujettes à la dépression, qui sont plus névrotiques, qui sont plus susceptibles de s'inquiéter pour leur santé, peut-être qu'elles ont une prédisposition? Il est important d'y penser.


La pensée critique du troisième ordre est lorsque vous réalisez que ces deux conditions peuvent être remplies simultanément. Ceux. il se peut que les personnes névrosées consultent des végétariens, mais il se peut que la viande influence également d'une manière ou d'une autre. À la fois cela et un autre fonctionnent en même temps. 5% de l'un, 5% de l'autre - au total 10% sont obtenus. Pourquoi pas? C'est possible.


Enfin, et c'est peut-être le plus important, la capacité de faire la distinction entre le fait que si la viande est saine, cela ne signifie pas qu'elle est éthique. Et vice versa. Je peux avoir des opinions sur l'humanité ou l'inhumanité de la viande. Combien dois-je garder les porcs dans des cages étroites, est-ce généralement permis pour moi en tant que personne? Tout ce que je peux y penser, mais cela ne dit rien sur la qualité de la recherche. Il est possible que les végétariens soient toujours sujets à la dépression, il n'y a rien à faire.

Nous ne pouvons pas tout savoir, mais il est absolument en notre pouvoir de douter et de google. Je suppose que vous ne chercherez sur Google que si vous avez besoin de défendre votre opinion. Avant de monter sur scène, Google, s'il vous plaît, cela aide beaucoup. Il n'est pas nécessaire de faire confiance à 100%, mais il est logique de considérer des informations moyennement fiables.

Je suis de plus en plus convaincu qu'une personne qui parle depuis très longtemps et avec confiance sur scène ne comprend tout simplement pas de quoi il parle. La catégorisation est un signe de manque de professionnalisme.

Bien sûr, il serait très bon de demander non seulement une confirmation, mais aussi des réfutations pour vos opinions. Il serait bon de comprendre et de comprendre non seulement à quel point la pensée critique est utile, à quel point elle est attrayante, mais aussi à quel point elle est nuisible. C'est utile et nuisible, ces choses ne s'excluent pas mutuellement, donc ça peut être utile et nuisible en même temps.


Je vous exhorte à développer en vous la pensée critique, mais cela ne fonctionne que si vous vous entourez de personnes pour lesquelles la pensée critique est importante.


Développez la pensée critique de vos interlocuteurs. Vous vous disputez avec quelqu'un, je crains que cela soit inévitable, mais en général, la criticité de votre pensée dépend de votre environnement social. Travailler en équipe, les gens en équipe pensent de manière critique, c'est la chose la plus fondamentale que je voulais vous dire.


All Articles