Benoît Thieullin, Entrepreneur, membre du CESE, rapporteur de l’avis « Pour une souveraineté européenne du numérique »
Marie-Joëlle Guillaume, Présidente
À ce stade des travaux de notre année académique sur le thème de la vérité, nous sommes très heureux d’accueillir Benoît Thieullin. Je vais laisser à Antoine Renard le soin de présenter à nos amis sa personnalité. Je voudrais simplement dire, Monsieur, que nous avons eu l’occasion de nous rencontrer tout récemment, et que votre conversation a été passionnante sur beaucoup de sujets, si bien que nous attendons avec grand intérêt ce que vous allez nous dire ce soir.
Présentation par Antoine Renard, membre du Conseil
Madame la Présidente, chers amis, je suis personnellement très content d’accueillir ici Benoît Thieullin, parce que nous avons travaillé ensemble au Conseil Économique et Social, mais surtout et d’abord parce c’est un homme d’action, un homme de réflexion et un homme d’engagement, qui va au bout de ses idées, des idées nées de passions. Le monde ordinaire présente Benoît Thieullin comme entrepreneur et homme politique ; il est en effet les deux, et dans les deux domaines il a poussé son engagement et sa passion assez loin. Entrepreneur, il a créé « L’Escouade », une entreprise qui a mis initialement à la disposition des communicants les premiers logiciels américains sur ce sujet. Benoît s’est passionné pour le numérique dès son plus jeune âge, je crois, à l’époque où même les ordinateurs de bureau n’existaient pas ; autant dire que pour arriver à faire quelque chose, il fallait vraiment chercher. Mais il a vécu cela comme une aventure, comme un jeu, devinant par avance toutes les promesses, et éventuellement les déceptions et les menaces que pouvait offrir ce monde du numérique.
Poussant son engagement jusqu’au bout, il a été conduit assez vite, après ses études à Sciences-Po – dont il est devenu professeur, puis doyen et co-doyen – à y créer l’École du management et de l’innovation. Très rapidement, Benoît Thieullin est repéré pour son double intérêt pour le numérique et la politique, et dès l’an 2000 il entre au Service d’information du gouvernement. À partir de 2005, il participe également aux travaux de la Commission européenne, dans le groupe d’information sur l’Europe. En 2006 il crée le site participatif Désirs d’avenir qui a laissé quelques souvenirs à certains d’entre nous ; c’était précurseur. Il est nommé président du Conseil national du numérique en 2013 et jusqu’à 2016, et devient en 2015, au titre de ses compétences sur la communication et sur le numérique, administrateur de France Télévision. En 2015 il est désigné « personnel qualifié » au Conseil Économique, Social et Environnemental, et c’est là que nous nous sommes connus. On peut regretter – c’est en tout cas ma position – la disparition de personnalités qualifiées au Conseil Économique, Social et Environnemental. Car quelques-unes l’étaient particulièrement, et c’était le cas de Benoît Thieullin.
Au CESE, Benoît, tu as été rapporteur d’un avis qui s’intitulait « Pour une souveraineté européenne du numérique ». Il a fallu ta ténacité, ta conviction et ta capacité de convaincre pour maintenir ce titre. Je précise que c’était longtemps avant l’Ukraine et la Covid, et qu’à l’époque le terme de « souveraineté » n’était pas très à la mode, en particulier dans les ambiances convenues, comme celle du Conseil Économique, Social et Environnemental.
Benoît, tu as souhaité une présentation sobre, j’ai donc fait une présentation sobre, mais je voudrais tout de même ajouter, pour lever un coin du voile sur nos conversations avec Marie-Joëlle la semaine dernière, que parmi tes passions il y a Notre-Dame de Paris, dont tu as fait quatre fois l’ascension, ce qui, on en conviendra, n’est pas donné à tout le monde ! Je dirai enfin avec plaisir que nous te recevons deux jours avant tes 50 ans, si bien qu’en te laissant la parole je te souhaite par avance un bon anniversaire.
Lire l'article complet
Communication
Benoît Thieullin
Merci beaucoup de votre invitation, je suis ravi de pouvoir échanger avec vous, sur un sujet qui effectivement me passionne. J’ai eu la chance, pour maintes raisons, d’acquérir assez tôt la conviction que l’informatique n’offrait pas simplement un média ou un outil de plus mais annonçait des changements profonds. Or l’informatique a d’abord été un peu négligée, du fait précisément qu’elle était au départ conçu comme un outil. Quand le web est apparu au milieu des années 90, on l’a plutôt regardé comme un média. C’est d’ailleurs cela qui a provoqué les premières discussions, avant la vague des start-ups advenue un peu après, où l’on s’est rendu compte qu’il ne s’agissait peut-être pas simplement d’un média. A l’apparition du web on considérait qu’on assistait un peu au même phénomène que pour la télé qui avait chassé la radio – pas complètement d’ailleurs : la télévision avait beaucoup changé la société, même si l’on ne peut pas non plus dire qu’elle résume les changements vécus dans le monde durant la deuxième moitié du XXe siècle.
Puis, lors de l’émergence des start-up, on a considéré que le web était peut-être plus qu’un média, peut-être un nouveau secteur économique. En réalité, une nouvelle fois, on se trompait. Il a fallu une bonne vingtaine d’années pour que soit reconnu le fait qu’il s’agissait plutôt d’une révolution sans précédent, d’une révolution culturelle, anthropologique, probablement sans pareille, ce que personnellement je croyais depuis le début. En gros l’apparition du web date de 1995, nous sommes aujourd’hui en 2022. Or cela ne fait que quelques années – peut-être cinq, six ou sept ans – que nous sommes à peu près tous convaincus de vivre une révolution sans précédent.
Quelle révolution ? Notre goût partagé pour l’Histoire nous permet à mon sens de la resituer, car il est nécessaire d’opérer beaucoup de retours en arrière pour comprendre à quel point les changements que nous sommes en train de vivre sont vertigineux, et posent des questions assez structurelles. Quand je présidais le Conseil national du numérique, j’ai eu la chance d’avoir parmi les membres du Conseil un grand philosophe français, Bernard Stiegler, qui a beaucoup pensé le numérique. On se trompe souvent d’ailleurs en croyant que ceux qui le font sont tous Américains. Il y a beaucoup d’Américains, c’est exact, mais il y a aussi de très grands penseurs du numérique en France. Selon Stiegler, la révolution numérique est d’abord une révolution de la connaissance. Je partage cette conviction. C’est pour cela que j’aborderai le problème de la vérité sous cet angle.
Stiegler disait que cette révolution de la connaissance était aussi majeure que le changement qu’a connu l’humanité en passant de la culture orale à la culture écrite. Vous imaginez bien que si l’invention d’Internet et la révolution numérique que nous vivons sont aussi importantes que l’invention de l’écriture, l’enjeu auquel nous sommes confrontés n’est pas mince ! Cela signifie qu’au regard des quelques milliers d’années de l’histoire de l’humanité, il s’agit d’un bouleversement très profond, dont on ne voit en outre que les prémices. Si je devais prendre un autre exemple, plus parlant me semble-t-il que celui de l’invention de l’écriture, je prendrais celui de l’invention de l’imprimerie. Le parallèle avec Gutenberg est très éclairant pour comprendre la révolution numérique de notre époque car il s’agit également d’une invention technique, qui a eu aussitôt des conséquences dans le champ de la connaissance et du savoir – ce qui précisément nous intéresse.
Alors, que s’est-il passé, et comment fait-on le parallèle entre les deux ? Je ne suis pas un historien de cette époque-là, mais il est manifeste que l’invention de l’imprimerie a profondément bouleversé le rapport des êtres humains avec le savoir et la connaissance, que cela a accéléré de manière fondamentale la diffusion des savoirs et entraîné des conséquences majeures sur l’organisation sociale des différents pays, en tout cas en Europe. On constate notamment que seules quelques années séparent l’invention de l’imprimerie de la Réforme protestante, qui lui est directement liée. De même les bouleversements de la société qu’a connus ensuite l’Occident sont difficilement séparables de cette invention révolutionnaire : ses conséquences s’observent jusque dans les révolutions politiques du XVIIe siècle en Angleterre, et par suite également dans la société en France, marquée par la Révolution, comme dans le reste de l’Europe du XVIIIe siècle. Ce partage de connaissances dans le champ scientifique va aussi avoir des conséquences dans le champ industriel, avec la révolution industrielle. On peut assez facilement établir un lien entre cette nouvelle technologie et ses impacts dans les sphères sociale et politique.
D’une certaine façon il en va de même pour la révolution numérique : nous vivons un changement profond du rapport au savoir – je vais essayer d’expliquer pourquoi, et en quoi. Il y a cependant une différence fondamentale. En effet, ce dont je viens de parler s’est échelonné sur plusieurs siècles, depuis l’invention de Gutenberg jusqu’aux révolutions industrielle et politique. Or il est vraisemblable que la révolution informatique, née en réalité pendant la Seconde guerre mondiale, va se déployer, avec toutes ses conséquences, sur deux ou trois générations au maximum. Nous sommes à peu près au début, ou à peine plus, je reviendrai sur ce point. L’informatique a été inventée pendant la Seconde guerre mondiale pour déchiffrer les codes allemands : vous connaissez sans doute l’histoire d’Enigma. Mais il y avait déjà beaucoup de recherches en France comme aux États-Unis, qui se conjuguent à l’occasion de la Seconde guerre mondiale contre les Allemands. Or il se passe quelque chose de très particulier dans cette révolution informatique, tant au moment de la Seconde guerre mondiale que dans les années 50 : les gros ordinateurs font leur apparition, mais dans ce mouvement l’invention d’Internet va constituer un point d’inflexion absolument majeur.
Car internet ne représente pas un petit changement dans la révolution informatique ; pour reprendre le titre d’un livre célèbre, c’est une « Révolution dans la révolution ». En effet, si l’on avait laissé l’informatique se développer en Occident telle qu’elle avait été conçue et pensée dans les années 40 et 50 par les ingénieurs télécoms, cela aurait abouti à un réseau d’ordinateurs connectés, comme l’a été le Minitel, c’est-à-dire quelque chose de très centralisé. Or ce n’est pas ce qui s’est passé.
Il faut revenir un peu sur le contexte des années 60 : on est aux États-Unis, en plein baby-boom. Une frange importante de la jeunesse, démographiquement assez forte, commence à émerger. Elle est très remontée contre la guerre au Vietnam, remet largement en cause l’organisation hiérarchique, d’abord dans la famille, puis dans l’université et dans l’entreprise ; toutes les théories du management se renouvellent alors en se faisant l’écho de ce mouvement d’émancipation. La remise en cause des organisations hiérarchiques verticales, on la trouve partout, certes d’abord aux États-Unis, mais aussi en Europe occidentale ensuite. Que ce soit dans le champ politique, le champ familial, le champ entrepreneurial ou académique, toute la société semble bouleversée par cette immense vague ‘’d’horizontalisation’’ des organisations. Au risque d’être un peu schématique et caricatural, je dirai que c’est en réalité l’esprit de Mai 68 qui est à l’œuvre. Parmi les jeunes porteurs de cette idéologie, certains sont des informaticiens, qui cherchent comment inscrire dans le champ informatique leur volonté d’émancipation et d’horizontalisation de la société. Ils vont alors imaginer la société informatique idéale où chaque individu aurait son propre ordinateur. Cela nous paraît évident aujourd’hui, mais dans les années 60, l’informatique est centralisée et on ne l’imagine pas autrement. D’une part en effet, les ordinateurs sont très coûteux et ont des puissances de calcul extrêmement faibles par rapport à celles d’aujourd’hui ; d’autre part ils sont énormes. Le schéma est donc celui d’une informatique centralisée autour d’un gros ordinateur central, que des gens se partagent.
Mais ces jeunes étudiants en informatique sont très malins, assez visionnaires, et s’appuient sur la fameuse loi de Moore – le doublement des capacités de mémoire tous les 18 mois – pour envisager de pouvoir entamer avec l’électronique une miniaturisation très puissante des ordinateurs. Ils font donc des projections et comprennent qu’à l’horizon d’une vingtaine d’années, les ordinateurs grands comme cette pièce seront beaucoup plus petits – même si je pense qu’ils ne les imaginaient pas aussi petits qu’ils le sont devenus. Ils anticipent donc la miniaturisation croissante des ordinateurs, et imaginent chaque individu muni de sa propre « puissance de calcul » – telle était leur façon de parler à l’époque. Par ailleurs une partie d’entre eux fréquente beaucoup le monde académique, puisque l’informatique à l’époque concerne les très grandes entreprises, l’armée surtout, ou l’université. Forts de cette puissance de calcul personnelle à disposition, les professeurs de cette mouvance se rendent compte qu’il ne leur manque plus qu’un réseau capable de faciliter les échanges d’informations, les discussions, les débats inhérents à leur métier. Il leur manque un réseau ! Et c’est précisément ce constat qui a provoqué l’invention d’internet, car internet, c’est un réseau hyper égalitaire dépourvu de centre. Je sais qu’on attribue toujours cette invention à l’armée américaine. Et il est vrai qu’aux États-Unis – c’est une de leurs grandes forces -, l’armée américaine met beaucoup d’argent dans la recherche, quelle qu’elle soit. Or lorsqu’on est en guerre, le fait d’avoir un réseau dépourvu de centre signifie être indestructible, aucune bombe ne pouvant le détruire. Le fait de construire un réseau hyper distribué avait donc évidemment des buts militaires, mais c’était aussi tout simplement pensé par des étudiants et des professeurs désireux de promouvoir un type de collaboration hyper égalitaire, correspondant à leur mode de relation d’égal à égal, à cet entre soi qui les caractérisait.
Je voudrais, en disant cela, vous faire percevoir que cette révolution est certes une révolution technologique mais qu’elle fut très vite aussi une révolution politique, ayant été mise d’emblée au service d’une finalité précise, celle que portait ce mouvement d’ « horizontalisation » des relations sociales. Je pense personnellement – c’est une obsession pour moi – qu’on a souvent un très mauvais rapport à la technique, en particulier au numérique. En effet, on a tendance à regarder le numérique comme quelque chose de presque transcendant, tombé du ciel, indiscutable, alors que l’invention d’Internet montre précisément le contraire : ce sont des jeunes ayant un objectif politique, désirant profondément changer la société, la réorganiser différemment, qui ont fait le pari que l’informatique allait être au cœur du changement du monde. Et ils ont porté leur idéologie dans la structure et l’architecture technique de ce réseau. C’est pourquoi ce dernier n’a pas de centre, il est hyper égalitaire, et personne ne regarde jamais ce qui se passe dessus. Cela ne sera pas sans poser de problèmes, mais c’est aussi ce qui va faire sa force.
Souvenez-vous du débat lancé dans les années 90, à propos de « l’autoroute de l’information » -une appellation complètement oubliée aujourd’hui. A l’époque, c’était simplement une façon de dire que le numérique et la connexion des ordinateurs allaient permettre une grande circulation des informations. On se demandait quelle serait la structure du réseau qui permettrait cette fameuse « autoroute de l’information ». Il y a eu beaucoup de discussions, et en France on le faisait assez naturellement avec le Minitel. Soit dit en passant, il n’y a aucun sarcasme de ma part sur le Minitel, qui a été une invention absolument géniale : un seul pays au monde est allé au bout de la logique de ce dont les ingénieurs télécoms pouvaient rêver dans les années 50 et 60, c’est la France, pays très jacobin, très centralisé. L’État a en effet décidé, un jour, d’organiser un maillage de tout le territoire avec des ordinateurs dans tous les foyers. C’était une idée géniale, mais évidemment non sans défauts. Nous l’avons tous vu à l’époque, le défaut venait du fait que c’était un réseau fermé, centralisé, et qu’il fallait passer par France Télécom. Ce réseau avait néanmoins un avantage, celui d’être appuyé sur un modèle d’affaires. Mais un modèle d’affaires qui était en faveur de France Télécom et de l’État, et par conséquent très fermé. Ainsi la télématique française a-t-elle eu à l’époque de vrais succès, mais pour créer un site internet sur le Minitel, il fallait aller voir les gens de France Télécom, les intéresser suffisamment, décrocher un contrat, etc., car, s’agissant d’un réseau centralisé, il y avait un gardien à l’entrée, un gate keeper.
Evidemment, ce réseau n’a pas tenu le choc face au réseau mondial hyper égalitaire utilisé par les professeurs, constitué avec des fonds militaires américains, et finalement adopté par l’administration Clinton. La notion de « neutralité du net » vous est-elle familière ? La neutralité du net signifie que le réseau est aveugle et ne traite différemment aucun de ses usagers. Or à l’époque, ce fait rendait folles les grandes entreprises capitalistes américaines et européennes qui ne comprenaient pas le choix d’un tel réseau comme épine dorsale de l’informatisation du monde. Car l’origine d’Internet, je le rappelle, c’est bien un réseau de professeurs échangeant de l’information et construisant leur savoir grâce à ce réseau. Est venu le moment – François Fillon était alors ministre des Télécoms – où l’on a demandé à Gérard Théry, l’un des inventeurs du Minitel en France, s’il fallait choisir ce réseau internet – présent en Europe, très présent en France, et dont le protocole TCP/IP avait d’ailleurs été largement construit par des ingénieurs français, même si des Américains, des Anglais, des Suisses y avaient aussi largement contribué. Ce réseau était mis en avant par l’administration Clinton au motif qu’il marchait bien, qu’il était très léger, que son code source était ouvert, donc connu par tous, ce qui donnait des garanties d’usage. Mais Théry a expliqué que pour trois raisons Internet ne pouvait pas marcher – réaction normale compte tenu de son état d’esprit, je ne relève pas cela de façon sarcastique, c’est quelqu’un que j’admire beaucoup.
La première raison, selon Théry, c’est qu’il s’agissait d’un réseau insuffisamment sécurisé, ce qui était vrai. Nous avons tous vu, dans les années qui ont suivi, le problème des hackers etc. Par ailleurs, étant un réseau hyper égalitaire, il avait l’inconvénient de mettre sur le même plan la blogueuse du coin de la rue ou la boulangère que TF1 ou Leroy Merlin, ce qui aux yeux de Théry n’avait pas de sens. Il aurait donc fallu de gros tuyaux pour les gros acteurs, des petits tuyaux pour les petits. Enfin, contrairement au Minitel, Internet n’avait pas de modèle d’affaires, pas de système de paiement. D’ailleurs, pendant les dix premières années, souvenez-vous, on ne pouvait rien acheter sur Internet, c’était trop compliqué. Théry a donc conclu son analyse par une phrase amusante : selon lui, faire le choix d’Internet à la fin des années 90, c’était « comme prendre la dernière diligence au moment où l’on construit les premiers chemins de fer » ! Il s’est trompé, parce que précisément les faiblesses d’Internet faisaient sa force. Parce que précisément c’était un réseau extrêmement facile à déployer, complètement ouvert, certes avec quantité de problèmes, mais qui seraient résolus au fur et à mesure. C’est ce qui s’est passé, puisqu’aujourd’hui par exemple, il s’agit dans l’ensemble d’un réseau sécurisé.
Je fais ces longs détours parce que je pense important d’avoir en tête le fait qu’Internet est un réseau complètement distribué, ce qui pose aujourd’hui beaucoup de problèmes. Mais l’énorme avantage d’Internet est d’avoir permis en quelques années une profonde diffusion du savoir et de la connaissance un peu partout. J’aimerais vous donner un exemple, qui n’a pas pour but de prétendre que tout est positif et sans effet de bords – j’y reviendrai. L’exemple est celui de Wikipédia, qui globalement aujourd’hui demeure un exemple assez peu contestable. En effet, en dehors de quelques pages polémiques, selon maintes études réalisées 99 % des contenus de Wikipédia sont d’une très grande qualité. Ils s’enrichissent à chaque seconde grâce à des communautés, souvent d’ailleurs de professeurs, d’experts ou de bénévoles experts, qui y contribuent. On dispose donc avec cet outil de la plus grande encyclopédie vivante jamais construite depuis le début de l’humanité. Or près de la totalité de l’humanité y a accès ! Il faut se représenter ce bouleversement ! J’ai grandi comme vous à une époque où l’information, le livre étaient rares. J’avais la chance d’avoir quelques livres chez mes parents, mais il n’y en avait pas assez et la bibliothèque en avait peu. Aujourd’hui la plus grande bibliothèque du monde est à la portée d’un « clic » de chacun, elle est rendue accessible quasiment à l’humanité entière ! Cela ne peut pas ne pas avoir de conséquences. Cela en a déjà. C’est une révolution absolument majeure, qui est en train de changer l’humanité.
Vous êtes au fin fond de l’Afrique, sans école, mais vous avez quand même eu la chance d’apprendre à lire, et parfois même des applications vont vous permettre d’apprendre à lire, le système éducatif étant dépassé par le flot démographique. Personne auparavant dans l’Histoire n’avait jamais eu un tel accès au savoir. Vous pouvez quasiment, avec une connexion internet à peu près correcte, vous connecter à Harvard ou à la Sorbonne et avoir accès à des formations en ligne de qualité exceptionnelle. À échéance de 10, 20, 30, 40 ou 50 ans, il est évident que cela va transformer fondamentalement l’humanité. Or c’est désormais un acquis, qui a conduit à une révolution de l’empowerment, vous me pardonnerez cet anglicisme, le mot est intraduisible en français. C’est vraiment mon credo, je pense que cette révolution numérique donne du pouvoir aux gens en leur offrant non seulement des accès à la connaissance et au savoir – c’est le plus important – mais aussi des moyens, par exemple celui de créer leur entreprise. Si l’on considère toutes les créations d’entreprises qui ont eu lieu depuis 20 ans par le numérique, c’est toujours en vertu de la même philosophie. Aujourd’hui on regarde les GAFA, Google, Amazon, Facebook, etc. comme des géants devenus presque des étoiles noires, posant une infinité de problèmes. Après avoir cru qu’elles changeraient nos vies positivement, on en voit aujourd’hui toutes les limites. Mais il faut bien se rendre compte qu’il y a vingt ans, cela se résumait à trois jeunes dans un garage ! Le fait qu’une petite entreprise comme l’était Google à l’origine ait réussi à devenir grande aussi rapidement est en réalité lié à la structure du réseau Internet. Si cela s’était passé dans le cadre du Minitel, France Télécom aurait proposé à Google de racheter son algorithme et de le mettre sur le moteur de recherche. La structure du réseau d’internet faisait que vous pouviez vous connecter directement.
Quels sont les problèmes qui se posent, dans ces conditions, quant au rapport à la connaissance et à la vérité ? Au début, on a largement bénéficié d’effets relativement positifs, dans la mesure où se retrouvaient surtout sur Internet des « pionniers », des « gens éduqués », etc. Il y a eu ensuite une vague de connexion de l’ensemble de la population, notamment par les réseaux sociaux : des gens complètement atomisés qui ne pouvaient pas faire de prosélytisme se sont regroupés en communautés. Par exemple, vous êtes en 1990 et vous voulez créer un groupe de gens qui pensent que la Terre est plate. L’opération va être très compliquée sans accès aux médias. En effet, si vous prétendez que la Terre est plate, vous ne serez pas invité au Journal de 20 heures, aucune maison d’édition ne voudra vous publier, ou alors très marginalement. Alors qu’aujourd’hui, avec Internet, un ‘’platiste’’ pourra éditer un livre, créer sa chaîne de télévision, et surtout recruter des gens qui pensent comme lui. Auparavant ces personnes vivaient dispersées, et les structures qui permettaient les rassemblements ou organisations étaient des institutions. Or les institutions sont bien tenues : ce sont des entreprises, des associations, des universités. Donc, ce qui pouvait s’organiser naguère dans la société était ce qui était validé par une certaine élite, qu’elle soit académique, politique, ou auto-entrepreneuriale. Aujourd’hui, chacun peut s’organiser à peu de frais grâce à Internet, chacun peut créer sa chaîne de télé, etc. ! On a donc basculé dans un environnement où non seulement des gens autrefois sans pouvoir sont aujourd’hui en mesure d’avoir de l’influence, mais encore où ils produisent beaucoup de contenus pour gagner tout un public à leur cause. Les ‘’platistes’’ diffusent une information scientifiquement fausse, mais ce qui est problématique, c’est qu’aujourd’hui les contenus défendant le platisme sont plus nombreux que ceux démontrant que la Terre est ronde ; et pour cause, ce dernier point est acquis depuis des siècles ! Alors qu’à l’inverse les platistes ont des parts de marché à gagner, des gens à convaincre. Il y a peu de temps, je me suis trouvé dans un débat sur le thème des distorsions algorithmiques, qui, on le sait, sont pléthore aujourd’hui dans les moteurs de recherche comme You Tube ou Google. Or la moindre recherche qui s’approche de la question de la forme de la Terre nous fait très rapidement tomber sur des contenus platistes ! Cet effet pervers du système pose donc une vraie question : comment gérer l’inflation des contenus non scientifiquement établis, mais qui remettent en cause des vérités validées par la science depuis plusieurs siècles, enseignées à l’école, ne faisant plus guère l’objet de recherche ? En effet Internet ne valide rien scientifiquement ; rien n’empêche qui que ce soit de créer une chaîne You Tube pour défendre une thèse, si absurde soit-elle.
Or ce phénomène est aggravé par deux choses : la première tient au fait de l’extrême abondance de l’information : il est impossible d’avoir accès à une information sans qu’un algorithme vienne la trier à notre insu. A titre d’exemple, contrairement à ce que beaucoup imaginent, notre flux d’informations sur notre page Facebook ne résulte pas de la somme des posts de nos amis mais d’un tri de ceux-ci opéré par des autorités qui connaissent nos centres d’intérêts. En effet, ce sur quoi nous avons déjà cliqué une fois est repéré et va permettre un tri effectué de telle sorte que nous restions le plus longtemps sur le fil. Il y a donc un double biais très problématique, qui nous éloigne de la vérité : l’information dont nous disposons a été triée, on ne peut rien y faire et on n’y pense pas. Souvent nous ne nous rendons pas compte que notre recherche fait l’objet d’une médiation par un algorithme ; ce n’est pas écrit ! Personnellement, quand je vais sur Twitter, je peux m’imaginer voir les mêmes informations que Marie-Joëlle. Or ce n’est pas le cas ; j’aurai accès à des informations différentes, malgré quelques abonnements communs, et inversement pour Marie-Joëlle. En effet, Twitter aura détecté quelles informations nous intéresseraient et lesquelles nous laisseraient sans réaction. Il va donc trier lesdites informations avant de nous proposer seulement celles qui retiendront notre attention. Et notre propre biais cognitif nous fait oublier la médiation de l’intelligence artificielle qui trie l’information.
Il y a un deuxième biais : le fait que toutes ces plateformes sont des entreprises privées cherchant à faire des profits, même si ce ne sont pas des entreprises totalement comme les autres. Comme elles gagnent de l’argent en captant notre attention et en travaillant à nous faire revenir le plus possible, l’algorithme va évidemment nous donner l’information recherchée, mais aussi l’information recherchée qui va le plus capter notre attention, ce qui n’est pas forcément la même chose. Par conséquent, étant donné ces biais cognitifs, on sait aujourd’hui qu’entre des textes très nuancés, très calmes et vrais et des textes hystériques, colériques et faux, la majeure partie des gens seront enclins à choisir ceux-là davantage que les premiers. C’est ainsi. A propos des recherches faites par mot-clef sur You Tube par exemple, beaucoup d’études montrent notre inclination à choisir les résultats de recherche ou informations « fausses », caricaturées, davantage que les informations vraies. Or le problème de l’algorithme, c’est qu’il est précisément conçu pour servir de plus en plus ce qui marche le mieux. Si vous cliquez et trouvez une information liée au sujet « la Terre est plate », vous allez la regarder, c’est certain ! L’algorithme comprend alors que cela vous a intéressé, et par conséquent le moteur de recherche vous proposera plus d’informations sur le platisme, etc. Nous sommes dans une espèce de bulle algorithmique, dans laquelle, de même que la mauvaise monnaie chasse la bonne, la mauvaise information chasse la bonne. Il y a donc là un défi immense à relever.
Qu’est-ce que la vérité selon Google ? Certes n’exagérons pas, la plupart du temps, sans donner la vérité, Google peut donner accès à des informations souvent assez en rapport avec ce que l’on recherche. Mais assez vite ces informations seront brassées avec d’autres, risquant éventuellement de nous amener à bifurquer sur des contenus très discutables. C’est un immense problème qu’on ne sait pas régler. J’en discutais précisément il y a quelques jours avec les patrons de Google et de You Tube. On les interrogeait sur la façon de valider des contenus vraiment scientifiques et de les faire remonter davantage. Or ils ont répondu qu’en réalité ils n’en avaient pas assez, ce qui représentait un vrai problème ! C’est pourquoi, et je conclurai peut-être là-dessus d’ailleurs, il y a bien un décalage complet entre la façon dont s’établissent la vérité et la connaissance dans un monde académique et scientifique, et la façon dont elle se déploie dans un environnement complètement horizontalisé, celui du réseau Internet. Dans le monde académique, une vérité scientifique est le résultat d’énormément d’interactions entre pairs, et in fine ce sont ces mêmes interactions qui permettent l’établissement d’une vérité scientifique à peu près reconnue, jusqu’à ce qu’une autre vérité scientifique vienne éventuellement la remettre en cause, ou l’amender et la faire progresser. Mais on est nécessairement dans un univers clos, tout le monde ne peut pas y entrer : pour y accéder, il faut des diplômes, il faut faire de la recherche, avoir obtenu des validations. L’environnement n’est pas le même du tout sur Internet, ce qui explique l’inflation des contenus. Alors, comment faire pour que le monde académique – le seul, à mon avis, en tout cas dans le champ scientifique, à contribuer à établir des vérités scientifiques, mais ayant vocation à rester clos dans ses procédures -, essaime dans cet environnement numérique, où il n’est pas assez présent ? L’enjeu est majeur aujourd’hui. En disant cela, je ne remets pas en cause ce qu’est une vérité scientifique : une vérité scientifique, c’est ce que les méthodes scientifiques valident. En revanche, l’époque où la recherche et le débat scientifique se faisaient quasi exclusivement entre pairs est probablement révolue. On ne peut donc plus tenir pour acquises des vérités qui sont simplement enseignées à l’école. Le monde académique, les gens ayant du savoir, doivent mesurer la responsabilité morale et politique qui leur incombe d’essaimer et de produire des contenus, d’élargir leur audience, non pas pour valider leurs vérités scientifiques, mais en raison de leur rôle social et politique. On ne pourra pas se contenter de simplement asséner des vérités, même si elles sont validées scientifiquement à l’école ; en effet les gens remettent ces vérités en question, ce qui est d’ailleurs intéressant pour progresser. Mais in fine, je pense que les défis à relever sont majeurs.
Pour le dire de manière un peu schématique, je suis convaincu que les populismes auxquels nous faisons face aujourd’hui, et une forme de radicalité dans le champ religieux, sont les enfants d’Internet. Sans Internet, il n’y a pas Daech. Je pense que sans Internet, il n’y aurait pas Trump. L’hystérisation du débat public a servi le populisme, et Internet est responsable de l’hystérisation du débat public, c’est indéniable. Mais ne jetons pas le bébé avec l’eau du bain : il y a aussi Wikipédia, il y a aussi le fait que les gens peuvent prendre la parole, il y a aussi le fait que si vous avez une idée géniale, vous pouvez demain toucher éventuellement un milliard d’interlocuteurs sans grande difficulté. Cela représente un acquis considérable, mais qu’il est impératif d’apprendre à utiliser, car nous sommes en train de nous brûler les mains avec cet outil. Cela me rappelle les débuts de la liberté de la presse sous la Révolution française, c’était catastrophique, une horreur ! Il va donc falloir apprendre à gérer Internet. Il y a des solutions, et par exemple il y a un levier important, celui que représentent les tenants du savoir, qui doivent aller sur ces réseaux-là et non les abandonner aux populistes, aux fous, aux platistes, etc. Il faut aller au combat, parce que la société est devenue vivante, elle ne tient plus pour acquises des choses simplement assénées une fois à l’école, elle remet tout en cause. Ce doute n’est d’ailleurs pas mauvais, pourvu que le débat soit alimenté par de bons contenus.
Par ailleurs, j’estime qu’il faut trouver un moyen de calmer le débat public, parce que ce sont les technologies qui mettent les gens en colère, c’est évident. Une fois encore l’algorithme pousse à l’excitation : vous avez aimé la vidéo sur le platisme, eh bien, on vous en proposera une autre pour nourrir cette excitation. La colère des Gilets jaunes n’est certes pas née d’Internet, mais leur mouvement y est tout de même directement lié. S’il y eut évidemment un impact de la hausse des prix de l’essence à un moment donné, avec la taxe carbone, sur l’émergence des Gilets jaunes, il y a aussi un soubassement technologique à leur révolte. Lorsque Trump est élu, la Silicon Valley plutôt démocrate – en tout cas pas du tout populiste – est effondrée, convaincue d’avoir une responsabilité dans l’élection de Trump. Pas seulement parce que les Russes auraient acheté de la publicité, mais surtout parce qu’elle a bien conscience que le débat public a eu lieu sur Twitter, sur Facebook etc., surtout sur Facebook, du reste. Elle a parfaitement conscience du fait que Facebook, après avoir largement outillé le débat public, l’a probablement desservi.
Les responsables essaient alors de comprendre les raisons de cette situation, et ils se rendent compte qu’en fait il y a trop de débats généralistes et que le débat public a été pollué par des informations fausses circulant extrêmement vite. Une étude manifestement avérée aujourd’hui montre qu’une fausse information sur Internet, sur les réseaux sociaux, circule sept fois plus vite qu’une véritable information. Algorithme + biais cognitif ! Une information fausse, choquante, va attirer votre regard, davantage qu’une vérité vraie, c’est comme ça ! Facebook a conscience, au moment de l’avènement de Trump, que ses algorithmes ont favorisé la diffusion de fausses informations, la montée de la colère et l’hystérisation du débat public. Conséquence : Facebook va changer ses algorithmes, de sorte qu’il y ait moins de débats publics généralistes et que les gens discutent de sujets locaux. Ses responsables souhaitent aujourd’hui mettre en avant les groupes locaux. Les Gilets jaunes sont le résultat de cette stratégie. Les gens se sont regroupés localement, sur les ronds-points. Je ne suis pas en train de vous dire que le mouvement des Gilets jaunes vient uniquement de Facebook, mais qu’il va falloir réguler tout cela. Parce que ces plateformes ont pris un pouvoir dans nos sociétés absolument considérable. Les chaînes de Daech, c’était sur You Tube, les channels d’informations de Daech sur Telegram ; sans Internet il n’y aurait pas de Daech. Comment recrutent-ils ? Quelles vidéos envoient-ils ? Comment échangent-ils avec les gens, comment les font-ils venir ? Par des outils numériques. Force est de constater que l’utilisation excessive des algorithmes Facebook pour le débat public contribue à faire élire Trump, alors que leur modification permet de relocaliser l’information, ce qui aura une conséquence sur le phénomène des Gilets jaunes. Il va donc falloir demander à Zuckerberg la possibilité de décider avec lui comment changer les algorithmes. Ils ne peuvent plus être changés unilatéralement par des ingénieurs isolés alors qu’in fine ils ont des conséquences politiques et économiques profondes.
Je n’ai pas du tout parlé d’économie, mais c’est évidemment la même chose : si vous changez un tout petit peu l’algorithme d’Amazon, des centaines d’entreprises peuvent mourir tout d’un coup ! En effet taper « bouteille d’eau » dans Amazon n’aura pas le même résultat avec moi qu’avec quelqu’un d’autre ! Autre exemple : essayez d’acheter un téléphone Google sur Amazon, en tapant « assistant Google » sur Amazon, vous allez voir ce qui ressort : les mêmes produits, mais Amazon ! Ce que je veux dire par là, c’est qu’en fait ces plateformes ont pris un pouvoir considérable ! Certes elles nous rendent service et nous donnent accès, pour l’essentiel, à de bonnes informations. Même s’il y a beaucoup d’effets de bord, elles nous offrent une base logistique remarquable, des chaînes de contenus très intéressantes, etc. ; mais elles ont acquis une telle emprise, avec tellement d’effets de bord, qu’il faut absolument pouvoir les contrôler, les réguler. Cela veut dire qu’on doit pouvoir ouvrir la boîte des algorithmes et mettre des limites. Je pense donc que le monde académique et le monde politique doivent reprendre la main sur tout cela, au risque de le voir faire, sinon, par des entreprises privées, plutôt plus responsables d’ailleurs que d’autres, mais dont les intérêts restent privés. Or elles disposeraient d’outils de service public. Telle est la réalité.
Marie-Joëlle Guillaume
Un grand merci pour ce panorama qui, en nous faisant plonger dans l’Histoire – il faut toujours plonger dans l’Histoire pour y voir clair – nous a permis de mesurer l’étendue de cette révolution. Avant de lancer le débat, je voudrais dire que j’ai beaucoup aimé, dans votre approche de conclusion, votre appel aux gens qui ont du savoir académique ou scientifique, afin qu’ils soient davantage présents. Ce n’est pas la première idée à laquelle on pense, quand on veut essayer de se garder d’une influence trop grande d’Internet. Mais cet appel à la responsabilité de ceux qui ont été bien formés, ont de vraies connaissances et doivent les partager me semble très important. Par ailleurs, vous avez amorcé une réflexion sur le danger de ces algorithmes et la puissance qu’ils détiennent. Je note personnellement qu’un organisme comme Facebook se permet des censures. Au-delà de l’attitude vertueuse qui consiste à refuser de se faire le relais de propos faux comme le platisme, il y a des censures et parallèlement des orientations discutables, dont on a l’impression qu’elles se multiplient. Je pense à ce qui se passe du côté de la culture woke par exemple, qui déferle sur les réseaux sociaux. Je vous rejoindrai donc pleinement en disant qu’il faudrait que le politique, au sens le plus noble des choses, que les responsables politiques ayant un sens civique suffisamment développé reprennent la main là-dessus. De même qu’il n’est pas bon que l’économique prenne le pas sur le politique, et qu’il faut que l’économie soit régulée par le politique, je pense que ce qui se passe du côté du web exige que s’exerce une responsabilité pour le bien commun.
Joseph Thouvenel
Merci beaucoup Benoît, indéniablement c’est une révolution comme Gutenberg, etc., et l’impact est extraordinaire, ‘’formidable’’ peut-être au sens étymologique, à savoir ce qui peut faire peur et entraîner un certain nombre de conséquences industrielles, sociales, sociétales, etc. En ce qui concerne les risques, c’est un entraînement dans l’immédiateté qui va en fait à l’inverse de la révolution de la connaissance, parce que c’est antinomique avec le « Connais-toi toi-même ». Pour le « Connais-toi toi-même », il faut du temps. Ces révolutions nous précipitent en permanence, c’est ma première remarque. D’autre part on a peu abordé la question de la légitimité des uns et des autres à réguler, voire même du politique : quelle est sa légitimité ? Comment le politique est-il élu ? Si l’on croit à la démocratie, peut-on considérer que l’on a de bonnes et vraies élections aujourd’hui ?
Je note par ailleurs que Twitter avait censuré une députée espagnole pour avoir osé dire qu’un homme n’était pas une femme ! On est d’accord ou non mais il me semble que pour la vérité scientifique, cela ne fait pas un pli ! Or son compte a été fermé. Doit-on laisser à certains le pouvoir de priver les autres de la capacité de s’exprimer sur les réseaux ? Sans compter que dans tous les courants politiques on voit des gens penser qu’il faut censurer cette femme ! Il y a donc un problème de liberté et de démocratie. Enfin, petite remarque sortie du bout de ma lorgnette à propos de Wikipédia : certes c’est une bibliothèque mondiale nous permettant d’avoir des informations très rapidement sur beaucoup de choses, mais beaucoup d’informations sont totalement fausses. Concernant mon sujet, celui des syndicats, si je tape « histoire du droit du travail en France » ou « lois sociales en France », je vais apprendre que tout cela a commencé au XIXe siècle, ce qui est faux. Le premier texte de droit du travail écrit en France, c’est le Livre des métiers, rédigé sous saint Louis. Et pourtant tout le monde préfère suivre Wikipédia. Il y a donc des idéologies dominantes, y compris dans notre pays, qui transmettent des erreurs, et ne permettent pas d’aborder la réalité des choses. Par exemple, le phénomène des Gilets jaunes, à mon sens, c’est une jacquerie comme il y en a eu tant d’autres dans notre Histoire. Elles n’ont pas eu besoin d’Internet.
Benoît Thieullin
Wikipédia comporte des erreurs ou des vérités qui ne sont pas partagées, mais je dirai que cela fait partie du débat académique ou scientifique. Il y a des professeurs de droit du travail qui pensent que cela commence au XIXe siècle, et d’autres qui pensent que cela a commencé sous Saint Louis, mais c’est le débat scientifique, que Wikipédia se contente de refléter.
Joseph Thouvenel
Excuse-moi, mais ta remarque est peu scientifique. Car, indéniablement, le premier texte de droit du travail décrit en France est écrit sous saint Louis. Ce texte existe, on en a deux exemplaires [originaux].
Benoît Thieullin
Ce que je veux simplement dire, c’est que Wikipédia reflète des débats qui peuvent exister. Je ne connais pas le sujet spécifique que tu cites, mais je me fonde sur des études qui montrent que, globalement, Wikipédia est une source fiable.
Ensuite, cela pose la question éternelle de la vérité : qu’est-ce que la vérité – et la vérité scientifique ? Wikipédia ne résoudra pas davantage ce problème que n’importe quelle université ; il y a des débats… Les sciences dures ont un avantage sur les sciences molles, c’est que leurs résultats sont un peu plus stables. La physique quantique dans Wikipédia est bien décrite. Quant à l’autre question…
Joseph Thouvenel
La légitimité de ceux qui peuvent réguler…
Benoît Thieullin
C’est un énorme sujet ; je pense qu’on ne peut pas réguler ce que l’on ne comprend pas ou que l’on ne connaît pas ; or aujourd’hui c’est un angle mort terrible chez nos responsables politiques. En effet, non seulement ils ont assez peu de culture scientifique, ce qui en France pose un vrai problème (et malheureusement sur ces quarante dernières années la politique a beaucoup perdu de profils scientifiques), mais en outre on ne sait pas, en réalité, ce qui se passe dans ces plateformes. Donc la première chose à faire serait de faire ce qu’on appelle de la rétro-ingénierie, c’est-à-dire être capable de savoir ce qui se passe dans telle plateforme ; or on ne le fait pas. Si demain, dans un magasin Leclerc, en cherchant un beurre Président au rayon crémerie, on ne trouve qu’un beurre Leclerc, la DGCCRF condamnera Leclerc pour n’avoir mis en avant que les seuls beurres de son enseigne. Est-ce que la DGCCRF sait ce qui se passe sur Amazon ? A-t-elle mesuré, regardé ? Et comment le faire, puisqu’il n’y a pas une seule tête de gondole, mais une tête de gondole pour chaque individu ! Donc il faut se donner les moyens de faire du testing sur Amazon, pour vérifier le fait qu’avec le profil de Marie-Joëlle, quand je demande « beurre », on me propose du beurre Président, et avec celui de Thieullin, on me propose du beurre Amazon ! Et puis essayer de comprendre pourquoi dans 90 % des cas c’est le beurre Amazon qui est mis en avant. Ce que fait Amazon n’est pas loyal, en réalité, c’est anticoncurrentiel ! Voilà un exemple pris dans le domaine économique, mais cela vaut dans tous les autres domaines. Il faudrait être capable de montrer si oui ou non You Tube favorise par exemple le platisme. C’est probablement vrai, mais il faudrait qu’eux-mêmes étudient cela pour être capable de l’affirmer.
La censure sur les médias sociaux, que tu as évoquée, est certes un problème, et là aussi il faut pouvoir réguler. Mais sur quelle base régule-t-on ? Quelle est la vérité ? Première question. Et deuxième aspect du problème, il s’agit de régulations algorithmiques, et pour cause : des millions d’informations par jour ne peuvent être réglées autrement que par l’automatisation. C’est un peu comme s’il s’agissait d’une espèce de justice industrialisée. Mais comment faire autrement ? Il faut qu’il y ait une procédure d’escalade des droits applicables aux informations postées sur les réseaux.
Peut-être connaissez-vous la fameuse plaisanterie ou le cas d’école suivant : si je poste la Vénus de Milo sur Facebook, mon compte va être fermé, parce que le droit américain n’accepte pas qu’on montre une poitrine. Or, selon la coutume française, cela ne pose pas de problème. Dès lors, quel droit appliquer ? Le droit américain ou le droit français sur une page française ? Et où sont les data ? Sont-elles en France ou aux États-Unis ? Toutes ces questions-là sont très complexes, et sont de toute façon réglées par des algorithmes puisqu’on ne peut évidemment pas surveiller chaque page Facebook. Donc il va falloir qu’on établisse une règle, un algorithme, qui permette de mettre la Vénus de Milo en France et de l’enlever aux États-Unis, car en réalité Internet aujourd’hui, c’est le Far West !
Comme pour la ruée vers l’or, il y a l’enthousiasme devant tout ce que ces nouvelles conquêtes ont apporté de bon, mais il faut définir des règles, et non se contenter de dupliquer celles d’hier – ce serait inefficace. Bien sûr, on peut continuer comme avant : si l’on est attaqué sur Internet, sur Twitter par exemple, on peut attaquer en diffamation, saisir le tribunal et obtenir une condamnation. Mais sur la timeline, il s’agira de 500 cas tous les jours ! On sent bien que le système judiciaire est inopérant face à l’industrialisation des conflits. C’est donc nécessairement l’algorithme qui va régler le conflit, en partie au moins. Si par la suite il y a une procédure d’escalade, si le conflit devient très grave, on pourra se retrouver au tribunal. Mais au quotidien cela ne peut pas être le cas. Il va donc falloir inventer de nouvelles règles.
Cet exemple est typique des problèmes liés à la liberté d’expression, et révèle la probable nécessité de développer un autre concept. Les Américains commencent à dire : « Freedom of speech is not freedom of reach », ce qui va à mon avis dans le sens des évolutions à opérer. Of reach, au sens d’une puissance d’écho, de la visibilité du post par des millions de gens. Or on confond aujourd’hui cette puissance d’écho avec la liberté d’expression. Etre censuré sur son compte Twitter n’est effectivement peut-être pas très intelligent, mais il y a des cas où il faut le faire, notamment sur des sujets clairement objectivés, au risque, sinon, de créer des conflits. On a intérêt à faire un peu attention, il n’est sans doute pas très bon que le platiste obtienne des millions de vues, ce que l’algorithme permet. C’est pourquoi il peut sembler bon de déconnecter la liberté d’expression de l’écho que les algorithmes actuels ont la capacité de lui offrir. En résumé, on pourra continuer à dire ce que l’on veut sur son compte Twitter, mais l’algorithme pourra faire en sorte qu’on ne puisse pas toucher des millions de gens aussi facilement. Ces nouvelles règles sont en train d’être définies. En effet, beaucoup ne sont pas totalement déclinables en l’état ; même si elles le sont dans le principe, elles ont besoin d’être adaptées à ces médias.
Rémi Sentis
Vous avez très bien parlé d’un sujet, celui de la distorsion qu’il peut exister dans algorithmes de recherche, ainsi que la façon dont on essaye d’y remédier – avec les effets pervers associés. Je voudrais simplement signaler un point technique concernant ce phénomène crucial : la richesse de Facebook tient au fait que le détail de l’algorithme de Facebook est tenu secret, de même pour Google. C’est un point fondamental, car s’il n’était pas secret, cet algorithme ne permettrait pas une telle puissance financière. Il est donc illusoire de penser qu’ils le communiqueront…Dans cet algorithme, il y a des paramètres, or c’est l’entreprise qui les ajuste, parce que c’est précisément cela qui fait sa richesse, et qui lui permet ensuite d’orienter, etc.
Par ailleurs, vous avez évoqué le sujet de l’école. Or non seulement les élèves passent un temps inimaginable sur leur smartphone et sur les réseaux sociaux etc., mais encore le ministère de l’Éducation nationale fait une publicité phénoménale pour les espaces de travail numérique. Plus encore que ce petit gadget, il y a le fait qu’on professe maintenant la doctrine selon laquelle il faut « apprendre par le numérique » et « enseigner par le numérique ». « Enseigner par le numérique », il s’agit du professeur, cela peut à la limite se comprendre. Mais inciter les élèves à apprendre par le numérique, par l’utilisation des réseaux sociaux pose vraiment des problèmes. Il y a bien une éducation aux médias, une formation à l’utilisation des réseaux sociaux, mais je me demande si la bonne solution pour les élèves ne serait pas de leur apprendre à ne pas utiliser les réseaux sociaux, à fermer leur compte Facebook, à fermer leur compte Telegram, à fermer leur compte Instagram ou Tik Tok. N’est-ce pas ce à quoi devraient les inciter les vrais professeurs ?
Benoît Thieullin
Oui et non. Je vais vous donner quelques exemples. Je suis inquiet comme vous de la part importante que les écrans prennent aussi dans nos vies d’adultes, nous sommes tous confrontés à ce problème. Je suis effaré de voir les gens de mon entourage lire de moins en moins de livres. Il y a une forme de « délinéarisation » des contenus qui menace réellement l’existence des histoires ayant un début, une fin etc. Il n’est donc pas sûr que de telles histoires demeurent. C’est un phénomène qui m’inquiète beaucoup, je n’ai donc pas un rapport béat à tout cela.
Je pense néanmoins qu’il y a des choses pour lesquelles le numérique rend un service immense. J’ai des enfants en bas âge qui apprennent à lire et à écrire, et je peux vous donner beaucoup d’exemples où un bon logiciel peut remplacer le professeur. Par exemple, occuper un professeur à faire une dictée n’a aucun intérêt : lire un texte à 25 élèves pendant 20 minutes, ramasser les copies et le soir passer deux heures à les corriger est une perte de temps, un ordinateur le fait mieux. Transférer cette activité à l’ordinateur pourrait permettre aux professeurs de dégager du temps pour faire autre chose. Il y a donc des cas de meilleure productivité du numérique, capable de réaliser automatiquement des activités sans valeur ajoutée du professeur, de manière que ce dernier puisse se consacrer à des activités qui en ont une. Autre exemple : l’écran est très régulé chez moi, mes enfants n’ont droit aux écrans que de façon très encadrée, mais j’ai été assez impressionné par deux ou trois outils numériques, dont un qui a été fourni par l’Éducation nationale. J’ai bien observé le cas de mes jumeaux qui ont des parcours différents, car ils ne vont pas à la même vitesse pour apprendre à lire et écrire. Or le logiciel permet de les faire progresser de manière beaucoup plus adaptée à leur propre parcours, comme s’il y avait un professeur en permanence derrière eux, ce qui n’est pas le cas dans une salle de classe de 25 élèves. Il y a donc des cas dans lequel un logiciel intelligent rend des services.
Encore un exemple : un ami polytechnicien m’a signalé un super logiciel fait par des Finlandais ou des Suédois, qui est comme un petit jeu permettant aux enfants de faire des équations ! Ils ont six ans, mais ils jouent avec les équations, sans qu’ils s’en rendent compte c’est comme s’ils faisaient réellement des équations. Il est évident que cet exercice est en train de structurer cognitivement leur cerveau de manière extrêmement intéressante. Il y a donc des cas où le numérique a toute sa place. Mais il y en a beaucoup dans lesquels il ne l’a pas du tout, je vous l’accorde. Le fait qu’il y ait un recours démesuré aux médias sociaux est inquiétant et je pense qu’il faudrait trouver un verrou, mettre des compteurs, ce que permettent d’ailleurs de plus en plus de fonctionnalités. Vous savez sans doute que les enfants des milliardaires de la Silicon Valley sont dans des écoles où il n’y a quasiment pas d’écrans. Cela signifie que lorsque l’écran est inutile il faut le supprimer ! Pour apprendre à lire et à écrire, s’il y a un logiciel qui permet d’accompagner les enfants, il ne faut pas hésiter à l’utiliser, mais en dehors de cela, non ! Et puis l’usage des écrans par les enfants doit rester très contrôlé. Le problème, c’est que les parents ont moins de culture numérique que leurs enfants, même si cela ne durera pas. Dans un premier temps, ils étaient complètement désemparés devant des outils qu’ils savaient moins bien utiliser que leurs enfants.
Rémi Sentis
Ma question concernait davantage les têtes pensantes du ministère de l’Éducation nationale. Parce qu’eux savent ce qu’ils font en incitant à l’utilisation des apprentissages via le numérique !
Il y a deux choses différentes : quand le professeur fournit un logiciel spécifique, c’est lui qui pilote et il s’agit alors d’un outil pédagogique, nous sommes d’accord. Mais quand on incite à tout propos à faire des recherches sur Internet sur tel ou tel sujet, non ! Quelle est la valeur ajoutée de ce type de travail ? Pourquoi le professeur n’incite-t-il pas les élèves à apprendre à chercher en bibliothèque, à ouvrir des dictionnaires etc. ? Pourquoi les hiérarques de l’Éducation nationale refusent-ils cela ?
Benoît Thieullin
Je suis loin d’être sans critique vis-à-vis de l’Éducation nationale, j’ai travaillé un peu avec ce Ministère, je pense que c’est probablement un des pires que j’ai connus. Mais je ne vous rejoins pas sur ce point. Je pense au contraire qu’il faut absolument apprendre aux enfants à utiliser Internet, qui représente le libéralisme dans l’information. Le libéralisme a beaucoup de qualités et d’avantages, en général c’est assez efficace, en revanche il est vrai que ses effets de bords peuvent être terribles. C’est la même chose dans le champ de l’information. En fait Internet a dérégulé l’information. D’une certaine manière, cela a dérégulé aussi ce qui concerne la vérité. La vérité scientifique qui est dans sa tour d’ivoire reste elle-même, mais sur Twitter elle peut être malmenée. C’est pour cela qu’il faut que les scientifiques sortent de leur tour d’ivoire et aillent sur Twitter, afin de ne pas laisser la dérégulation s’installer. Par ailleurs, apprendre aux enfants à naviguer dans un environnement dérégulé n’est pas une mince affaire. C’est pourquoi je ne vous rejoins pas et pense au contraire qu’il faut leur apprendre à naviguer dans des eaux troubles. Vous ne supprimerez pas le trouble, parce qu’en fait, dans l’eau trouble, il n’y a pas que de l’eau trouble.
Rémi Sentis
Il faudrait leur dire que c’est un environnement dangereux.
Benoît Thieullin
Nous sommes entièrement d’accord.
Marie-Joëlle Guillaume
Là où je rejoins Rémi Sentis, et aussi ce que vous avez dit tout à l’heure au sujet des parents de la Silicon Valley qui ne mettent pas d’écran entre les mains de leurs enfants, c’est sur le rôle de l’école : même s’il faut évidemment apprendre aux enfants à évoluer dans l’univers numérique, l’école devrait être plus que jamais le lieu d’apprentissage de l’esprit critique, ce qui implique une distance et un temps protégé. On n’apprend pas l’esprit critique en plongeant les enfants très jeunes dans le bain de l’informatique et en considérant que c’est le nec plus ultra qui leur permettra de tout acquérir.
Jean-François Lambert
Une remarque critique : on n’apprend pas à écrire sur un écran. Je veux bien qu’on puisse apprendre à lire sur un écran, mais en qui concerne l’écriture il y a un débat, car apprendre l’écriture implique le corps, ce n’est pas simplement une affaire de cerveau… J’ai fréquenté et travaillé une vingtaine d’années avec des gens de l’École alsacienne qui dès l’école maternelle apprenaient à écrire le chinois avec les professeurs de danse, c’est-à-dire que les petits enfants apprenaient à faire les caractères chinois comme de la danse, avec le corps. On écrit avec le corps, on écrit avec la main donc avec le corps. Ce n’est pas une lubie personnelle, tous les spécialistes neuro-pédagogiques – c’est un mot que je n’aime pas – diront qu’apprendre à écrire, c’est un crayon, c’est un geste.
Benoît Thieullin
Je me suis mal exprimé, j’aurais dû dire apprendre « à lire », non pas « à écrire ».
Jean-François Lambert
Je voudrais citer un mot du jargon à propos des biais que vous avez évoqués. Il y a un biais bien connu en psycho, qu’on appelle généralement le « biais de saillance ». On a prouvé qu’il existe dès le plus jeune âge : des expériences ont été faites avec des nourrissons à qui on a montré la même poupée, le même personnage, une fois, deux fois, dix fois tout en étudiant les mouvements du regard. Or la onzième fois, le nourrisson ne la regarde plus. Mais dès qu’on change la couleur de la robe de la poupée, à nouveau le bébé la regarde ! De ce point de vue-là, nous sommes tous des nourrissons qui ont grandi, et il est évident que sur les réseaux sociaux, le post le plus absurde a des chances d’entraîner un effet de saillance, ce qui certes est regrettable, mais doit être pris en compte.
Je voudrais ajouter une remarque d’une autre nature. On dit que nous sommes dans un univers dominé par les médias ; or j’ai eu plusieurs occasions, y compris dans le cadre de mes enseignements passés, d’essayer de montrer que c’est totalement le contraire ! J’estime que l’on est dans une société de l’immédiat. La main sur le cœur, on invoque le droit à la différence, or on vit dans une société de l’indifférence ! Quelqu’un évoquait la distinction entre les hommes et les femmes, or il devient presque ringard d’oser dire qu’il y a une différence entre les hommes et les femmes ! J’aimerais évoquer une autre différence, dans un domaine qui m’est familier, celle qui existe entre le normal et le pathologique. Je connais des gens dont j’ai contribué à la formation, aujourd’hui investis de responsabilités en psychothérapie, qui osent prétendre que la schizophrénie, par exemple, est une simple manière différente d’être au monde ! De même la différence entre l’expert et le novice tend à s’estomper : voyez le succès sur les chaînes de radio des émissions où les auditeurs ont la parole. Madame X intervient sur le thème : « le Professeur Y a dit ceci, mais moi je pense que … etc. » ! Tout cela finit par entretenir la confusion chez l’auditeur moyen, et créer un monde d’indifférence. D’une certaine manière les réseaux sociaux contribuent aussi à ce nivellement ; il n’y a plus vraiment ni d’expert ni de novice, tout le monde est expert pour tout le monde, se prétend expert de n’importe quoi. Quant à la différence entre l’Homme et l’animal, je risque de passer pour un réactionnaire si je prétends n’être pas simplement un singe supérieur ! … Je suis d’accord avec vous au sujet de l’enseignement qui constitue un défi formidable. A ma connaissance, la manière de former les maîtres aujourd’hui vise hélas surtout à leur apprendre à ne pas faire de vagues, à ne pas être « clivants », pour reprendre une expression à la mode !
Benoît Thieullin
Je voudrais apporter une précision après votre première remarque. Je pense qu’il faut en effet faire extrêmement attention à ce que le numérique ne déstructure pas des constructions cognitives fondamentales, comme par exemple celle que l’écriture implique. Effectivement, écrire est un geste structurant intellectuellement, et l’on ne mesure pas les conséquences qu’aurait un apprentissage uniquement fait sur clavier. Voici un autre exemple lié à un débat déjà daté : j’étais jeune quand j’ai entendu un scientifique dans l’émission des « Dossiers de l’écran », qui s’inquiétait très sérieusement de l’émergence des premières montres électroniques digitales, donnant l’heure avec des chiffres – ce qui n’est plus tellement à la mode aujourd’hui. Ce scientifique pointait le fait qu’après avoir mis des siècles à constituer ce qu’est une montre, c’est-à-dire en fait à représenter du temps par de l’espace, on réduisait l’apprentissage de la lecture de l’heure à une lecture de chiffres, ce qui inévitablement conduisait à affaiblir la construction cognitive de la représentation du temps par l’espace. A l’inverse il y a des cas où cela peut être intéressant, comme par exemple pour la lecture. On peut défendre un type d’apprentissage où il y a d’autres formes de représentation. Je vous parlais tout à l’heure des jeux qui permettent à des enfants de six ou sept ans de quasiment commencer à faire des équations sans comprendre qu’ils sont en train d’en faire. Je pense qu’il faut regarder les choses au cas par cas de manière très précise. Et surtout prendre en compte la trop forte accélération de ce phénomène. Il y a d’ailleurs beaucoup de mouvements aujourd’hui, y compris aux États-Unis, qui prônent le ralentissement : c’est ce qu’on appelle le slow web. Car on n’a même plus le temps d’en voir les conséquences, on est dans un cycle d’innovations manifestement exponentiel qu’on ne peut guère empêcher. Je pense que s’il est illusoire aujourd’hui de vouloir supprimer les médias sociaux, il est urgent d’entreprendre la construction d’une norme sociale indiquant le danger d’une surexposition aux réseaux sociaux. Et c’est parce qu’on la construira socialement qu’elle sera puissante.
Nicolas Aumônier
Je suis très intéressé par ce que vous avez dit, et très sceptique sur certaines de vos réponses. Je distinguerai plusieurs niveaux de scepticisme : premièrement, quand vous parlez de la dictée, je pense que vous méconnaissez l’aspect très formateur de la voix et de l’espace partagé – physiquement partagé. Je ne souscris donc pas à cette déréalisation de la dictée. Je pense que quand des parents lisent une histoire à un enfant, même une histoire qu’il connaît par cœur, mais dont il est friand, ce n’est pas du temps perdu. En effet, que ce soit son père ou sa mère qui lise l’histoire ou quelqu’un d’autre qui l’aime, ce n’est pas l’histoire qui l’intéresse, mais le fait qu’elle soit lue à voix haute par quelqu’un qui l’aime. Je pense donc qu’il n’est pas inutile de payer un maître ou une maîtresse pour faire faire des dictées à voix haute dans un espace de classe partagé.
La deuxième remarque sceptique que je voudrais formuler concerne la régulation. La régulation peut porter sur des usages, mais beaucoup plus difficilement sur la notion de vérité elle-même. Dans ce dernier cas, il est très difficile de réguler, puisque chacun des utilisateurs de la toile est amené à penser que ce qu’il croit est vrai. Quand des scientifiques discutent un résultat entre eux, on dit que ce résultat est validé s’il l’est par les pairs (pair view) ; or tout ce que je trouve à l’appui d’une thèse sur internet m’est fourni par le biais de filtres qui me confortent dans ma bulle de filtres (filtersbubble), en me montrant que mon opinion est partagée, validée par beaucoup. Les bulles de filtres sur internet sont les analogues de la validation par les pairs des discussions scientifiques. Si tel ou tel se sent alors conforté dans les énoncés qu’il est porté à croire et auxquels d’autres que lui adhèrent, comment croire à ce que vous avez proposé : dépêcher des super héros ou des super responsables pour descendre dans la boîte et cliquer sur tel paramètre, ou mandater des savants du monde académique, ou des politiques pour se mêler de tout cela ??? D’une part, la vitesse de transmission des données (vraies ou fausses) est trop rapide dans ce flux incessant pour être réellement contrée. D’autre part, si l’on reste dans la boîte de ces flux, sur les écrans, comment percevoir le réel ? Devons-nous dire que ce flux de données à la fiabilité problématique constitue l’étoffe du réel ? Est-il possible de gagner une certaine altitude qui nous permettrait de distinguer des zones de brouillards de contours plus nets ? Le rapport au réel ‘’médié’’ par l’écran et par internet est-il moins juste que celui qui n’est pas médié par eux ?
Alors, comment faire pour qu’il y ait un rapport au réel permettant de trier entre ce qui est vrai et ce qui ne l’est pas ? Si on décide que ce tri sera fait par des gens, on risque de rester dans une problématique de l’entre-soi. Or je crois que l’une des raisons d’être du mouvement des Gilets jaunes, c’est l’exaspération devant un certain entre-soi, raison qui n’a d’ailleurs pas été suffisamment prise en compte par les politiques ; or c’est une vraie question, que l’on ne peut pas réduire à la dimension populiste du problème. Nous assistons à une caricature de la décision politique, trop rapide, trop peu travaillée, trop soucieuse de plaire à l’opinion, et qui n’est plus que le résultat de réflexions menées entre soi pour être réélus tous ensemble. C’est une catastrophe, et le ferment des révolutions. Je pense donc que le fait de confier à quelques-uns le soin de trier consiste précisément à rester dans un entre-soi délétère, et il m’a semblé que c’était la solution que vous défendiez ici.
Benoît Thieullin
Non, je me suis mal exprimé… Je reviens d’abord sur la dictée. Je ne cherche pas à faire un plaidoyer pour ou contre les dictées électroniques, et l’on pourrait prendre d’autres exemples. Mais vous établissez entre la dictée et le fait de lire une histoire aux enfants un lien que je ne ferais pas. Je dis seulement que la dictée pourrait gagner en productivité, et que c’est une question de temps utile, une question d’arbitrage. Avons-nous les moyens de payer autant de professeurs ? Il est toujours meilleur en effet d’être en lien avec une personne que d’être face à une machine, encore que l’exemple des petits jeux vidéo sur les équations montre qu’il y a des cas où le numérique permet un apprentissage là où l’enfant n’aurait pas l’attention suffisante pour suivre une leçon là-dessus. Tous les exemples sont discutables, je pense seulement que les professeurs, qui ne sont pas assez nombreux, pourraient parfois être mieux employés et coûter moins cher en étant relayés par le numérique.
Je reviens maintenant sur les algorithmes, parce qu’il a été très justement noté tout à l’heure qu’on ne pouvait imaginer ouvrir les boîtes noires en demandant à Google de nous donner son algorithme. Si Google le fait, son algorithme n’aura plus de valeur, vous avez bien saisi l’enjeu. Si je connaissais l’algorithme de Google, je le détournerais à mon profit, et si je connaissais l’algorithme d’Amazon, mes produits seraient vendus mieux que les autres, etc. Ils ne peuvent donc pas donner leurs secrets industriels. En revanche on peut tester leurs conséquences, par ce que j’appelle la rétro-ingénierie, qui permet de savoir quelles sont les conséquences des différents choix algorithmiques. Donc il faudrait faire cent profils différents, et puis regarder, avant de mesurer. Or cela n’est pas fait. C’est une logique analogue à celle des inspecteurs qui vont au supermarché pour vérifier qu’un produit n’est pas mis plus en avant qu’un autre : il faut inventer, créer une manière de surveiller selon de nouvelles formes d’inspection. Ensuite, comment cela se régule-t-il ? L’algorithme et la ‘’data-fication’’ du monde permettent d’inventer de nouvelles formes de régulation.
Je vous donne un exemple très parlant : vous utilisez sûrement tous des applications permettant de vous guider, comme l’appli Waze. Quand il y a un embouteillage sur l’autoroute, ce logiciel va vous détourner de l’autoroute et vous faire passer par un petit chemin à côté. Jusqu’à présent on trouvait formidable cet outil de régulation du trafic. Maintenant, mettez-vous à la place du maire d’un petit village situé à côté de l’autoroute où il y a régulièrement des embouteillages. A cause de Waze, ce petit village tranquille devient une aire d’autoroute à partir du moment où y sont détournées tous les jours des milliers de voitures. Le petit village tranquille va devenir pollué, la route conçue initialement pour faire passer cent voitures et non pas dix mille devra être refaite. Or la mairie n’aura pas les moyens de payer, et la rue restera pleine de nids de poule ; des enfants courront un risque accru de se faire écraser en traversant la rue, et il va y avoir autant de pollution atmosphérique que sonore ! Bref le village sera détruit en quelques mois, simplement du fait de cette application numérique ! C’est la raison pour laquelle, d’ailleurs, je conteste l’opposition « vie réelle » / « vie virtuelle », car elle n’a pas toujours de sens. Tout le génie de ces applications, c’est d’être des infrastructures d’information qui se mettent en couche logicielle au-dessus de l’infrastructure physique et en changent l’usage. Vous pouvez détruire un village simplement par la mise en place d’une couche logicielle sur une infrastructure. Or il s’agit bien de la réalité ! Je détruis le village, simplement en utilisant Waze.
Alors, comment réguler cela ? D’abord, il ne faut pas attendre que les enfants se fassent écraser par les camions re-routés dans ce village, ni que celui-ci fasse faillite à cause du coût prohibitif de la rénovation de son asphalte. La première chose est d’analyser ce qui se passe. Par exemple, sur Waze, il faudrait savoir où sont re-routées les voitures, grâce à ce qu’on appelle techniquement des API, soit des ouvertures dans la base de données, qui permettent des vérifications par des inspecteurs ; en parlant d’« inspecteurs », je schématise un peu, mais globalement ils auront des accès réservés et limités, mais néanmoins de nature à savoir ce qui se passe dans la machine, comme de faire du test. Ensuite, on inventera de nouvelles formes de régulation. Le sujet n’est pas d’empêcher Waze d’amener des gens dans le petit village quand il y a un embouteillage sur l’A6, puisqu’objectivement cela rend un service. Il faut cesser de penser en mode binaire « autorisé/interdit ». Pour demain il faudra plutôt donner des autorisations sous certaines conditions, qui seront de plus en plus fines, intelligentes, et pourront même être établies en temps réel. Par exemple, on pourrait soumettre Waze à la règle selon laquelle les camions sont interdits dans les villages de plus ou moins 1 000 habitants, ou bien à la règle « jamais de camion », ou encore à celle « pas plus de 1 camion par heure ». Or c’est très simple à mettre en place, on est aujourd’hui capable d’individualiser ce type de règles.
De même l’interdiction d’Airbnb par la mairie de Paris. En réalité, la mairie fait ce qu’elle peut, mais c’est une régulation mal conçue : au début on a tout autorisé à Airbnb, et les hôtels se sont vidés pendant que les maisons du centre-ville se remplissaient de touristes. On marche sur la tête ! Là aussi j’ouvre une petite parenthèse. Il s’agit encore d’un très bel exemple d’une couche logicielle, celle de l’application Airbnb, qui modifie la réalité : alors que la mairie est en train de refaire le PLU, c’est Airbnb qui le transforme complètement ! C’est pour cette raison qu’il faut selon moi parler de réalité et non de virtuel au sujet de ces applications numériques. On voit maintenant des touristes préférer aux hôtels les habitats individuels. Et les gens gagnent tellement d’argent à louer leur habitat qu’ils préfèrent aller habiter plus loin, ce qui vide ces habitats de leur propriétaire…C’est absurde ! Il faut donc réguler, mais non pas interdire Airbnb. En effet, j’ai aussi en tête beaucoup d’exemples montrant tous les services que rend Airbnb. Au mois de juillet, quand les hôtels sont pleins parce qu’il y a eu en plus une Coupe du monde, Airbnb permet d’offrir tout d’un coup 50 000 appartements libres et ainsi d’absorber le flux touristique des Chinois arrivant à Paris à ce moment-là. C’est tout de même plus intelligent que de construire un hôtel uniquement pour le moment de l’année où il y aura un pic de tourisme ! A l’inverse, déloger tous les habitants du 7e arrondissement, du Marais et du quartier Notre-Dame est idiot. C’est pourquoi la mairie de Paris a fixé un seuil de 30 %, ce qui en réalité n’est pas optimal non plus car peut-être que cela pourrait être intéressant en juillet, mais surtout aussi uniquement quand les hôtels sont pleins ! Pouvoir procéder à des autorisations au cas par cas, automatiquement, ce serait de la régulation intelligente. Par exemple on pourrait autoriser Airbnb à mettre x appartements supplémentaires sur le marché, dès lors que l’offre touristique est saturée. C’est faisable. Même chose pour Waze. On pourra établir un seuil de cent voitures re-routées par jour, par heure, ou par deux heures selon les calculs. Tous ces exemples montrent que le moment est venu de procéder à des régulations quasiment en temps réel, dans la mesure où elles pourront être pensées en amont. Et selon moi ces décisions devront être prises démocratiquement. Or tout le problème de ces plateformes, c’est qu’aujourd’hui elles font ce qu’elles veulent.
Hervé L’Huillier
Dans cette conversation, je suis gêné par le fait que l’on considère finalement l’Internet comme un outil totalitaire, comme un outil unique. La problématique de la recherche de la vérité est donc difficile à accepter. Le problème du paradigme technocratique, c’est effectivement la domination de la technique sur l’homme et sur la nature. C’est de cela qu’il faut arriver à se défaire. Premièrement, pour accéder à la vérité et obtenir un savoir construit, il n’y a pas qu’Internet ! Il y a beaucoup d’autres outils, comme le livre. Les gens ici connaissent les communications sociales qu’on peut avoir sans passer par Internet, or c’est quelque chose qu’on a parfaitement le droit d’utiliser et que l’on peut selon moi recommander. Deuxième chose – je rebondis ici sur ce qu’a dit Marie-Joëlle Guillaume tout à l’heure – le premier régulateur est au fond le consommateur. Si nous étions vraiment exigeants dans notre recherche de vérité (on parle de vérité, pas simplement d’acheter des bouteilles d’eau), nous aurions la volonté d’obtenir des informations de qualité. Il faut donc peut-être se fabriquer des savoir-faire en matière de recherche de l’information de qualité. Pour cela, il faut par exemple exiger d’avoir la source des informations, ce qui n’a pas été évoqué.
En effet, si vous cherchez une information intéressante, pour laquelle la recherche de la vérité a du sens, vous pouvez peut-être investiguer sur Wikipédia – ce qui a tout de même beaucoup d’avantages – mais peut-être aussi chez les enseignants, sur des MOOC, etc. Dans tous les cas il faut apprendre à rechercher la source, à chercher le producteur du savoir et à ne retenir que ce qui est qualifié comme sûr. On n’a pas évoqué par exemple ici le cas extrême du dark web, de tout ce qui a été développé autour de Tor, et de tous les lieux où les gens peuvent produire de l’information sans nommer leur source ni même indiquer leur nom. Dans le cas de la guerre en Ukraine, aussi, on voit passer énormément d’informations dont on ignore l’origine et qui disparaissent en quelques jours. Ce genre de publication devrait être définitivement supprimé ; en tout cas le consommateur en recherche de vérité et de qualité devrait avoir cette exigence-là, et la construire. Je pense que l’Éducation nationale doit abondamment utiliser les outils, bien les utiliser, mais aussi former les personnes à savoir les utiliser. Il n’est pas acceptable que dans un cours d’Histoire, un enfant de 15 ou 13 ans dise au professeur qu’il se trompe d’après ce que lui-même a trouvé sur Internet, c’est-à-dire d’après ce qui est à la mode ! En revanche il est bon que le professeur encourage son élève à continuer à chercher de l’information, tout en lui apprenant à en discerner la qualité.
Benoît Thieullin
Je partage tout cela avec vous, à l’exception de ce que vous avez dit au début, sans doute du fait d’un malentendu, car Internet est devenu une infrastructure du savoir et de la connaissance. Le livre aujourd’hui est écrit d’abord par des outils numériques, ce qui ne présage pas de la forme, et Internet ne veut plus dire grand-chose en réalité. C’est un réseau, ce dont on ne parle plus guère d’ailleurs aujourd’hui, puisqu’on utilise davantage les termes de numérique, de plateforme, de médias sociaux. Mon propos est simplement de dire qu’on a constitué une infrastructure d’information mondiale. C’est un acquis, on ne reviendra pas dessus. Le livre est dedans, en fait ; il est conçu, acheté, discuté.
Hervé L’Huillier
Il est partiellement dedans. Je peux par exemple, si je cherche une information de qualité, acheter un « Que sais-je ? » qui m’apportera davantage que Wikipédia, à savoir une bonne information, écrite par quelqu’un de compétent, vérifiée par des personnes qualifiées, ce qui représente un petit plus par rapport à ce qu’offre l’infrastructure Internet.
Benoît Thieullin
Non, pour moi ça fait partie de l’infrastructure, car en réalité votre « Que sais-je ? » est sur Internet, vous allez le retrouver, l’acheter là ; c’est donc sur cette infrastructure que reposent tous les savoirs de la connaissance.
Hervé L’Huillier
Commercialement, oui, mais je ne vais pas le lire sur Internet.
Benoît Thieullin
Ensuite, c’est une question d’usage. Personnellement je préfère également lire sur des supports en papier, mais ce que je veux souligner, c’est le fait que vous chercherez l’information sur cette infrastructure. Internet n’est plus rien d’autre qu’une simple infrastructure informationnelle dans laquelle il y a tout, y compris les livres. Je voudrais aussi rebondir sur une autre de vos remarques : vous avez dit qu’il n’y avait probablement jamais eu autant de diversité de points de vue qu’aujourd’hui. Ce n’est donc pas si totalitaire que ça, c’est même presque un problème je pense !
Dans la salle
Mais il faudrait qu’il y ait égalité de compétences dans la diversité des informations.
Juste un mot sur cette discussion : il semble que la pierre d’achoppement, c’est l’anonymisation. Dans un cas, on signe ce qu’on écrit, dans l’autre cas on ne signe pas. C’est cela qui est un critère important. Or malheureusement, sur Wikipédia, ce n’est pas signé.
Benoît Thieullin
Cela dépend. En tout cas, ce qui est certain, c’est la nécessité d’armer les enfants pour leur apprendre à évoluer dans un environnement d’information dérégulé, à discerner ce qu’est une vérité scientifique, ce qui ne l’est pas, à aller à la source, à confronter les points de vue. En effet tout ne se vaut pas, même si effectivement internet peut parfois donner cette impression-là, tout y étant mis au même endroit. Pourtant cela ne signifie pas qu’il n’y a pas de hiérarchie du savoir. On trouve absolument tout sur Internet y compris les dictionnaires !
Je pense que les problèmes auxquels nous sommes confrontés aujourd’hui sont dus au fait que nous avons grandi dans un environnement hyper structuré – ce qui explique d’ailleurs pourquoi on ne s’est même pas posé la question de la vérité à l’avènement d’Internet. Quand on ouvrait un livre, globalement on était sûr qu’il avait passé une série de filtres considérable. Bien sûr, il existe des livres avec lesquels on peut ne pas être d’accord, mais la forme du livre est celle donnée par une maison d’édition, c’est-à-dire une entreprise qu’il a fallu convaincre d’éditer, où des gens sont payés pour la relecture, ce qui représente un travail considérable. Dans ce monde-là, un livre représentait la garantie d’une certaine fiabilité. Un discours à la télévision aussi, à l’époque, portait cette même garantie : paraître au journal de 20 heures n’était le fait que d’un nombre très limité de personnes, en tout cas plus limité que sur une chaîne You Tube. Aujourd’hui n’importe quel ‘’platiste’’ ou autre adepte d’une théorie plus ou moins loufoque peut avoir sa chaîne de télé. C’est fou ! Il faut donc réapprendre à structurer, à hiérarchiser : ce n’est pas parce que l’offre de connaissances est abondante et dérégulée que pour autant il n’y a pas de vérité, pas de hiérarchie, que tout se vaut ! Internet ne dit pas que tout se vaut mais il met tout à disposition, et c’est à chacun de retrouver de la valeur, de la hiérarchie.
Jean-Luc Archambault
Juste deux petits commentaires : effectivement je suis très sensible à ce que vous avez dit sur le fait que c’est aussi et d’abord à chacun de nous de prendre notre part dans la lutte contre le mensonge ou contre l’ignorance, ce qui n’est pas très nouveau dans l’humanité. Il faut aider les enfants, mais c’est largement à nous les adultes de le faire. Au sujet de la régulation, évidemment il s’agit d’un exercice difficile, surtout celle qui concerne les contenus, parce qu’elle peut évidemment dériver rapidement en censure et en limite à la liberté d’expression pour tous ceux qui ne pensent pas comme soi. On le voit bien aujourd’hui. Il en faut donc, mais sans excès. Je pense que la concurrence a des vertus qu’on ne peut pas non plus abandonner ; c’est d’ailleurs cette forme de régulation qui existe dans les médias dont le pluralisme est favorisé notamment par des règles anti-concentration. On prend soin de toujours maintenir une offre diversifiée de journaux, de chaînes de télé etc. Pourtant, concernant Internet et les réseaux sociaux, il n’y a qu’un seul Facebook, un seul Twitter, un seul Google, chacun dans son propre compartiment de marché. C’est à mon avis un aspect important du problème, qui mériterait d’être traité par des mesures éventuellement radicales pour tel ou tel cas particulier, mais aussi par un démantèlement, comme cela s’est fait par le passé dans d’autres industries.
Quant à l’éducation, il est intéressant de voir comment tout ce dont nous parlons pousse non seulement, comme vous le soulignez, à éduquer aux usages du numérique, mais aussi selon moi à retrouver la nécessité d’enseigner un certain nombre de savoirs fondamentaux. Par exemple, si l’école fonctionnait bien, personne ne pourrait encore avoir la crédulité de suivre les théories platistes. Certes il y aura sans doute encore longtemps un certain effet de masse, de même qu’un effet écran « vu à la télé », comme si ce qui était vu sur Internet était nécessairement vrai. Et, bien sûr, il faut dénoncer cette idée, sans crainte de déstabiliser les gens. Mais moins l’école transmettra une bonne culture scientifique, plus les gens seront à la merci des thèses les plus farfelues. Enfin, en ce qui concerne le rapport du virtuel et du réel, je pense qu’il faut aussi retrouver le sens des activités physiques, manuelles, et faire d’autant plus de classes de mer, de poterie ou autres, que l’on est sollicité par le « monde virtuel ». Cela peut paraître trop simple, mais je crois que c’est important.
Jean-Luc Bour
Je reprendrai ce que vous avez dit au sujet du démantèlement. Vous avez expliqué ses fonctions. Aujourd’hui quelle serait votre recommandation pour essayer de remettre un petit peu d’ordre, de règles ou peut-être démanteler ? Procèderiez-vous à un démantèlement géographique, ou par métier ?
Benoît Thieullin
Je crois que je ne le ferais pas. Pour moi il n’y a pas de tabous, mais il y a une grande différence avec Rockefeller. Je vous disais tout à l’heure qu’on avait affaire avec les GAFAM à des entreprises, mais en réalité ce ne sont pas des entreprises comme les autres. Selon moi elles sont des proto-États, elles sont en train de devenir des États. La grande différence entre Google et Rockefeller, c’est que Rockefeller était dans une position d’abus de position dominante pour faire monter ses profits. Ce n’est pas le cas de Google. Tous les ans Google réinvestit la totalité de ses profits en innovation sans verser un euro de dividende. Ce sont des entreprises qui dès le départ ont décidé de ne pas verser de dividendes aux actionnaires. Ce sont donc des entreprises très particulières : elles sont dans des positions d’abus de position dominante, sans aucun doute, puisqu’elles sont en situation de quasi-monopole ou de monopole, mais elles réinvestissent leurs profits.
J’en ai discuté une fois avec le président de l’Autorité de la concurrence Bruno Lasserre, qui est un grand personnage. Il disait être très pragmatique, et pour analyser la concurrence, essayait de mesurer les effets positifs de la situation, non sans difficulté. En effet le sujet n’est pas simplement de savoir s’il y a position dominante, mais de savoir s’il y a abus et pour cela d’observer si les externalités positives continuent à être supérieures aux externalités négatives. Car c’est en fonction de cela que les décisions sont prises d’agir ou non. Selon Bruno Lasserre il était difficile de ne pas reconnaître qu’aujourd’hui Google apportait globalement plus de productivité et d’innovation que l’inverse. Or tant que cette situation se maintient on ne peut pas réguler. Et à mon sens, si Rockefeller et d’autres grandes entreprises ont été démantelées, c’est parce qu’elles ne tiraient de leur position qu’un avantage financier pour elles-mêmes, ce qui n’est pas le cas de Google qui gagne certes beaucoup d’argent, mais propose tous les jours une nouvelle innovation observable par chacun en ouvrant son ordinateur.
En fait, les GAFAM ne sont pas des entreprises comme les autres, et je pense que dans vingt ou trente ans, l’Etat de droit démocratique, le politique devra être parvenu à les réguler, à leur donner des cadres avec tous les raffinements de règles particulières dont je vous donnais tout à l’heure quelques exemples, ce qui en réalité lui demandera un énorme travail. En effet, cela revient à se rendre compte que le droit tel qu’il a été conçu depuis quelques siècles et modernisé au moment de l’émergence du parlement au début du XIXe siècle, ne fonctionne plus ou ne suffit pas. Il est opérant pour réguler un monde physique avec des normes, mais il aurait besoin d’être approfondi pour répondre aux problématiques des architectures techniques. Il faut penser le droit dans les architectures techniques. Mais les États parviendront-ils à relever le défi ? Pour l’instant, ils n’en prennent guère le chemin. Je repense à l’exemple de la mairie de Paris, qui interdit en bloc Airbnb avant de l’autoriser puis de fixer un seuil de 30% ; mais pourquoi pas 35 ou 40 % ? Leur décision semble plus ou moins arbitraire, elle n’est pas justifiée. On applique une forme de régulation par le droit à des cas qui demanderaient beaucoup plus de finesse. Les hommes politiques, les producteurs de normes que sont les parlementaires vont-ils commencer à inventer de nouvelles façons de réguler – ou pas ? Je n’en sais rien. S’ils n’y arrivent pas, dans vingt ans il n’y aura plus qu’une seule solution, celle de démocratiser les plateformes. De faire entrer la décision démocratique dans les plateformes. En gros, il faudra que chacun exige son droit de vote chez Google et Facebook. Car on se rendra très bien compte que voter pour la République française ou l’Union européenne n’aura plus qu’un impact mineur sur nos vies, qui seront, dans les faits, de plus en plus influencées par ces plateformes. Il nous semblera déplacé et irréaliste de voter pour choisir le nombre de policiers à placer dans la rue ou pour boucher les trous dans la voirie, alors que notre système de santé, notre système éducatif, et autant de domaines si importants du quotidien seront régulés par le numérique au sein de plateformes non concernées par nos votes. C’est ça l’enjeu, en réalité.
Marie-Joëlle Guillaume
Oui, mais à quoi peut s’appliquer le droit de vote démocratique si l’on n’a pas accès aux secrets des algorithmes ?
Benoît Thieullin
Tout l’enjeu en fait, c’est de faire comprendre à Zuckerberg qu’il ne doit pas décider seul des changements de ses algorithmes. Lui faire comprendre la nécessité de la mise en place de procédures, et de la construction d’un État de droit à l’intérieur des plateformes. Ce sera d’ailleurs sans doute un peu les deux. Il est probable tout de même que l’on réarmera les États démocratiques, nos États, face à l’urgence de reprendre la main sur ces espaces, sinon l’on risquerait une implosion.
La santé va de plus en plus passer par le numérique. Dans dix ans, la moitié de la réponse médicale disponible correspondra à l’adaptation des médicaments à notre ADN, croisé avec quantité d’autres data sur chacun de nous. Alors, si Google affirme avoir la meilleure réponse, continuerez-vous d’être à la Sécu ?
Je pense vraiment qu’à un moment donné, il faudra demander aux plateformes de partager le pouvoir. D’ailleurs, si l’on revient sur ces vingt dernières années, quelle est la décision politique qui a changé votre vie, et dans quelles proportions par rapport à la révolution numérique ? Le numérique a bouleversé nos vies, de mille manières au quotidien, tous les jours ! Combien de décisions prises par le Président de la République ces vingt dernières années ont vraiment impacté votre quotidien ? Le champ de la santé, celui de l’éducation, le sport, tout est impacté par ces plateformes ; il va donc falloir s’en occuper.
Marie-Joëlle Guillaume
Il va nous falloir clore cette séance absolument passionnante. Je voudrais simplement, pour terminer, revenir sur un point qui a été évoqué : la question du temps. Vous avez parlé les uns et les autres du fait que l’on vivait dans l’immédiat, que notre rapport au temps était changé. C’est pourquoi, dans l’optique éducative qui est celle de notre Académie, il faudrait veiller à ce que les jeunes générations, et nous peut-être aussi, ne passions pas trop de temps devant les écrans, y compris ceux de nos smartphones. C’est peut-être ce retrait-là qui opérera une certaine régulation – personnelle, certes, mais avec des conséquences sociales. Un très grand merci à Benoît Thieullin !
Séance du 7 avril 2022