Enjeux de la Désinformation et de l’Intelligence Artificielle
Conférence du Professeur Tawfik Jelassi Organisée par le FIKD, l’AAISG, et l’AAENA
Siege AAENA, Menzah VI, samedi 19 avril 2025 de 10h à 13h
I. Introduction
L’information a été de tous temps un enjeu stratégique, en temps de paix comme en temps de guerre. Elle est un instrument de puissance géopolitique et de compétitivité économique pour tous les acteurs publics et privés, étatiques ou non-étatiques, institutions ou personnes physiques. A ce titre, elle est l’objet de manipulation et de distorsion amplifiées aujourd’hui par l’intelligence artificielle, compromettant ainsi l’intégrité de l’information et la prise de décision aussi bien à l’échelle nationale qu’internationale.
II. Enjeux de la désinformation et de l’intelligence artificielle
Sur invitation du Forum Ibn Khaldoun pour le Développement, l’Association des Anciens de l’ISG, et l’Association des Anciens du Cycle Supérieur de l’ENA, le Professeur Tawfik Jelassi a donné une conférence intitulée : « Les Enjeux de la Désinformation et l’Intelligence Artificielle ».
A. Présentation
Professeur Tawfik Jelassi a commencé en soulignant que dans une étude du Forum Economique Mondial de Davos, publiée en janvier 2025, sur les risques par ordre de gravité auxquels le monde fait face, la désinformation figure à la première place du classement, bien avant le changement climatique et la crise environnementale, le terrorisme, les guerres et les conflits, les flux migratoires, etc. Par ailleurs, une étude de MIT a montré que la désinformation circule 10 fois plus vite que l’information correcte, confirmant l’adage de Jonathan Swift : « Le Mensonge vole ; la Vérité boîte ! ». Il a donné quelques chiffres très éloquents sur le coût de la désinformation.
Il a aussi souligné que l’information est à la fois une richesse et un instrument de puissance géopolitique, sécuritaire et géoéconomique et qu’à ce titre, elle peut être l’objet d’abus et de manipulations prenant la forme de :
-
Désinformation : le risque provenant de l’usage intentionnel de fausses informations afin de manipuler l’opinion publique ou de l’influencer en masquant la vérité.
-
Mésinformation : le risque provenant de l’usage non-intentionnel de fausses informations. 3. Mal-information : le risque de l’usage et de la manipulation délibérée d’informations
correctes tronquées ou sorties de leur contexte d’origine.
Il a ensuite souligné que l’intelligence artificielle (IA) augmente significativement ces risques à travers l’amplification très forte des quatre « V » de la désinformation ;
-
Vélocité de propagation, 2. Viralité et envergure de l’empreinte de la propagation,
-
Volume des fausses informations produites et masse de la population atteinte, 4. Vérisimilitude, augmentant l’efficacité de l’impact et rendant très difficile la détection des
« fake news », « deep fake videos », etc.
Le conférencier a listé un certain nombre de problèmes tels que :
L’impossibilité pour un humain de distinguer entre : o Les tweets générés par l’IA et ceux écrits par un utilisateur réel de twitter (source : Etude de l’université de Zurich) o Les fausses et les vraies vidéos dans 50% des cas, un taux qui augmentera en raison des progrès technologiques de l’IA.
Les cas d’IA produisant « des hallucinations » en fournissant des réponses incorrectes à 60 % des requêtes (source : Columbia Journalism Review, mars 2025),
L’augmentation de plus de 2.000% au cours des trois dernières années des cas de fraudes rendues possibles par les « deep fakes »,
Les pertes produites par la désinformation atteignant 40 milliards de dollars rien qu’aux États-Unis et devant plus que tripler au cours des prochaines années.
Professeur Jelassi a ensuite cité des cas célèbres de désinformation, dont certains ont utilisé l’intelligence artificielle comme levier :
-
Le cas du scandale de Cambridge Analytica lors de la campagne pour les élections présidentielles américaines de 2016 ;
-
Le cas du génocide des Rohingyas en Birmanie en 2017 et le rôle qu’a joué Facebook à travers la diffusion de messages de haine ;
-
Le cas des élections présidentielles en Roumanie en novembre 2024 et l’utilisation malintentionnée de TikTok pour influencer l’opinion publique, conduisant à l’annulation des résultats de ces élections.
Il a signalé que la désinformation, les déséquilibres et les fractures en matière d’accès, d’utilisation, de propriété et de gouvernance de l’information, ainsi que la maitrise de l’IA sont des défis politiques, économiques et sociaux majeurs. Ils sont aussi des menaces graves au système international et à la paix dans le monde. Il a informé que comme pour la drogue, il y a une industrie occulte de la désinformation et que des acteurs étatiques et non-étatiques y sont impliqués aussi bien en tant que producteurs de la désinformation que comme clients de cette industrie.
Prof. Jelassi a ensuite abordé les politiques, les initiatives, les instruments normatifs et les formations visant à lutter contre la désinformation et à assurer une meilleure gouvernance de l’information et à un usage éthique de l’intelligence artificielle.
Les pays, les régions, les groupes et les institutions ont mis en place chacun pour soi des instruments juridiques et réglementaires, et des normes visant à protéger l’intégrité et la qualité de l’information et à mitiger, atténuer ou contenir le phénomène de désinformation.
Le conférencier a présenté le contexte mondial et son évolution. Il a indiqué que la dernière décennie a été marquée par une évolution majeure de notre rapport au numérique. La question n’est plus de savoir si nous devons gouverner les plateformes numériques, mais plutôt comment le faire. Les différentes étapes de cette évolution se présentent ainsi :
2010 : Le discours dominant est celui de la « technologie libératrice » : L’internet, le téléphone portable et les plateformes numériques démocratisent l’accès à l’information et favorisent la liberté d’expression.
2015 : L’avènement de la pensée de « Technologie toxique » accompagnée d’un nouveau narratif : « les plateformes numériques causent de graves dommages et constituent une menace croissante pour la société ».
2020 : L’adoption d’une règlementation générale de l’Union européenne sur la protection des données (RGPD) et d’une loi américaine sur la publicité honnête, ainsi que la mise en place de groupes de travail au sein du G7 et du G20 se focalisant sur les enjeux de l’économie numérique.
2022 : L’approbation de la directive européenne sur le marché numérique et ensuite sur les services numériques, ainsi que l’adoption de la loi britannique sur la sécurité en ligne et de la feuille de route de l’ONU pour la coopération numérique,
2023 : Au G7 à Hiroshima et au G20 à New Delhi en Inde, le Japon a proposé le principe de « Data Free Flow with Trust » (DFFT) et a recommandé son extension aux pays en voie de développement (connu sous l’appellation de « Global South »).
Professeur Jelassi a rappelé qu’il y a eu un sommet à Paris en février dernier sur l’Intelligence Artificielle et que les pays du BRICS+ ont inscrit ce sujet à l’ordre du jour de leur dialogue pour l’année 2025 sous présidence sud-africaine.
B. Initiatives de l’UNESCO
L’UNESCO, à son tour, a pris plusieurs initiatives en ligne avec sa mission de `‘construction de la paix dans l’esprit des hommes et des femmes”. Sa démarche part de la conviction qu’une information factuelle est un préalable à la vérité, elle-même un préalable à la confiance et à une perception partagée de la réalité sur laquelle la paix est bâtie.
L’UNESCO a pris à ce titre des initiatives visant aussi bien le contenu, les technologies que les méthodes. L’une de ces initiatives est intitulée « Social Media for Peace », réalisée au Kenya, en Indonésie, en Bosnie-Herzégovine, en Colombie et dans d’autres pays, pour élever le niveau de conscience et de prudence des médias et des acteurs de la société civile vis-à-vis la désinformation.
Professeur Tawfik Jelassi a informé que l’UNESCO encourage les pays à développer leur propre stratégie nationale en intelligence artificielle et à mettre en place un plan d’action d’éveil et de prise de conscience des enjeux et des défis de la désinformation et de l’IA. L’organisation inter- gouvernementale a mis en place en 2021 le premier instrument normatif mondial sur l’éthique de l’IA et a développé en 2023 des lignes directrices pour la gouvernance des plateformes numériques visant à lutter contre la désinformation tout en préservant la liberté d’expression et l’accès à l’information.
C. Attitude envers l’IA
Pendant le débat qui a suivi son exposé, Professeur Jelassi a souligné que les abus ou les mauvaises utilisations de l’intelligence artificielle ne doivent pas cacher ou occulter la puissance et l’utilité de cette technologie. Comme l’internet, la téléphonie mobile ou d’autres innovations numériques, l’IA a un double tranchant dont les bienfaits ou les risques pour l’humanité dépendent de l’utilisation qu’on en fait.
Il a cité en exemple la mise à contribution de l’IA dans l’accélération de la recherche et la rapidité spectaculaire du développement du vaccin contre la COVID-19. De même a-t-il souligné la
contribution de l’IA à l’éducation, à la recherche, à l’industrie et à son caractère de technologie horizontale pouvant contribuer au développement et à la productivité de tous les domaines ainsi qu’à la transformation de plusieurs secteurs.
Concernant le développement d’une stratégie nationale de lutte contre la désinformation, Professeur Jelassi a rappelé les trois piliers sur lesquels une telle stratégie peut reposer :
- Autonomiser les citoyens grâce à l’éducation aux médias et à l’information à l’ère numérique. 2. Favoriser l’approvisionnement en informations fiables. 3. Gouverner l’écosystème de l’information numérique.
A cette fin, l’UNESCO a élaboré les lignes directrices pour la gouvernance des plateformes numériques. Elles ont été générées par suite de trois consultations mondiales menées en 2022 et 2023 et l’organisation par l’UNESCO d’une conférence mondiale intitulée « Pour un internet de confiance ». Cette conférence a eu lieu en février 2023 et a rassemblé 4.000 participants internationaux et multipartites, dont les représentants des plateformes numériques. Ces consultations ont généré plus de 10.000 contributions provenant de 134 pays et de toutes les parties prenantes.
Le conférencier a rappelé les cinq principes de la gouvernance des plateformes numériques : 1. Modération des contenus en ligne : S’engager à aligner les politiques et pratiques de modération des contenus sur les normes internationales des droits de l’homme. 2. Accès pluraliste : Garantir aux utilisateurs des plateformes numériques l’accès à une diversité de points de vue et de perspectives sur un sujet donné. 3. Transparence : Assurer la transparence sur l’utilisation d’outils automatisés pour la modération des contenus et la publicité ciblée. 4. Capacité technologique : Améliorer les capacités technologiques pour détecter la 5. Collaboration avec les autorités compétentes, la société civile et les médias.
Concernant la régulation de l’intelligence artificielle, Professeur Jelassi en a listé les fondements et les principes à adopter ainsi que l’approche recommandée par l’UNESCO :
- Suivre les principes qui sont conformes aux lignes directrices internationales sur l’IA. 2. Adopter les normes permettant aux organisations de s’autoréguler en fonction de leur
secteur d’activité. 3. Assurer l’agilité du cadre réglementaire et opter pour une démarche
expérimentale permettant d’identifier les risques et de les atténuer. 4. Adapter les cadres juridiques sectoriels existants permettant de promulguer des lois sur l’IA. 5. Créer un environnement propice à une IA éthique, responsable, et respectueuse des droits
humains. 6. Garantir la transparence de l’accès à l’information et la protection des données. 7. Prévenir les risques de l’IA et anticiper les problèmes y afférents. 8. Protéger et promouvoir les droits humains des individus. 9. Attribuer les responsabilités et définir les sanctions en cas d’une mauvaise utilisation de l’IA. 10. Mettre en oeuvre la recommandation de l’UNESCO sur l’éthique de l’IA telle que cela a été
fait à ce jour par des pays tels que le Chili, le Cuba, la République Dominicaine, le Gabon, l’Indonésie, le Kenya, le Mexique, le Maroc, le Mozambique, l’Arabie saoudite, et l’Uruguay. D’autres pays (dont la Tunisie) ont récemment commencé la mise en oeuvre de cette recommandation.
D. Débat
Pendant le débat, les interventions ont été centrées sur :
-
L’attitude envers l’Intelligence Artificielle doit être équilibrée et saine. Il ne faut pas en sous- estimer les enjeux, les défis, les risques et les dangers réels et graves. Il ne faut pas non plus en faire un ogre de mal et en sous-estimer les opportunités et les dividendes qu’elle peut générer en termes de productivité, de bonne gouvernance et de qualité de vie.
-
Les politiques, les stratégies et les mesures de la communauté internationale en termes de IA et de lutte contre la désinformation doivent être ancrées dans une approche multipartite, incluant les états, la société civile, le secteur privé, les institutions académiques, les entreprises technologiques, etc.
-
Les organisations internationales concernées doivent promouvoir les principes de bonne gouvernance de l’IA afin de s’assurer d’une utilisation éthique et responsable de cette technologie. Elles peuvent s’inspirer de la démarche utilisée pour l’audit, l’accréditation des informations financières et l’obligation pour les entreprises ainsi que les cabinets d’audit et d’expertise comptable d’être en conformité avec des principes tels que les « Generally Accepted Accounting Principles » (GAPP) ou les « International Financial Reporting Standards » (IFRS) pour l’information financière. Ces principes internationaux orientent la gouvernance, la gestion et l’évaluation des entreprises ; ils informent aussi les décisions des investisseurs.
-
Pour développer une stratégie nationale en matière d’IA, il faudrait également s’inspirer de la COP 21 et de la Convention-cadre des Nations Unies sur les changements climatiques (adoptée à Paris en 2015) appelant les pays à développer une stratégie nationale pour lutter contre le changement climatique,
-
Mettre en place des actions de sensibilisation du grand public, telle que le message « Think critically, Click wisely », ainsi que des programmes d’éducation aux médias et à l’information à l’ère numérique, et des campagnes de sensibilisation à l’importance et aux défis de l’IA et de la
-
La Tunisie doit ambitionner non seulement d’utiliser l’IA dans le cadre de ses politiques nationales de développement, mais aussi pour en faire un levier scientifique, économique et industriel pour sa compétitivité internationale.
-
Dans ce contexte, il faut considérer l’intelligence artificielle comme une priorité nationale, tel que c’était le cas pour la micro-informatique au début des années 80. Il faut s’approprier l’IA non seulement pour l’utiliser à des fins nationales (centre de coût), mais aussi pour en faire une opportunité industrielle et économique majeure (centre de profit).
-
A cette fin, il faut encourager les universités tunisiennes, les laboratoires de recherche et la communauté scientifique tant à l’intérieur du pays qu’à l’étranger, à contribuer au développement de l’IA et de ses applications pour la Tunisie.
III. Conclusions et recommandations
La conférence a été une excellente occasion pour débattre et proposer les recommandations suivantes :
-
Mettre en place une stratégie nationale de prise en compte et de maîtrise des enjeux de la désinformation et de l’Intelligence Artificielle.
-
Mettre en réseau des décideurs, des fonctionnaires, des éducateurs, des chercheurs, et des acteurs publics et privés afin d’échanger et de collaborer sur les sujets de l’intelligence artificielle.
-
Renforcer la coopération avec la diaspora tunisienne pour la mise à jour des connaissances des acteurs publics, privés et académiques sur les enjeux sectoriels de l’IA et les opportunités qu’elle offre pour le développement de la Tunisie et sa compétitivité internationale.
-
Développer des programmes d’éducation, de formation et de campagnes de sensibilisation
aux enjeux de la désinformation et de l’intelligence artificielle. 5. Valoriser la création récente de l’Institut National de l’Ingénierie Numérique (établissement
public) pour la formation d’ingénieurs dans le domaine de l’IA comme une bonne initiative qui doit être encouragée et renforcée. 6. Envisager l’enseignement de l’intelligence artificielle aussi tôt que les premières années de l’enseignement primaire. 7. Assurer la formation continue dans le domaine de l’IA pour tous les cadres de l’administration. 8. Lancer des actions de sensibilisation du grand public aux dangers de la désinformation et intégrer dans le système d’enseignement des programmes d’éducation aux médias et à l’information à l’ère numérique. 9. Organiser un évènement multipartite qui débattra de la politique nationale en matière d’intelligence artificielle.