Ateliers

Le comité de programme a sélectionné 12 ateliers pour la journée du 4 juillet. Ces ateliers se tiennent sur une demi-journée ou sur la journée entière. Ils peuvent s'adresser à des débutant·e·s, des personnes de niveau intermédiaire ou des professionnel·le·s confirmé·e·s.

Faîtes votre choix parmis ces 12 propositions pour composer le menu de cette première journée du FIFE2023 !

Demi-journée, matinée du 4 juillet

Gestion numérique d’évaluation des ODDs : Cas de l’évaluations des cadres de coopération pays des Nations Unies au Soudan et Burkina Faso (niveau avancé) - Serge Eric Yakeu

Gérer une évaluation des ODDs impliquant des outils numériques requiert des aptitudes et des compétences spécifiques. Tout en proposant des astuces pratiques, cet atelier examinera aussi les implications conceptuelles des bases de données et leur gestion numérisée, l’identification et l’analyse des contributions des parties prenantes (utilisateurs de la base des données); l’analyse du rôle de l’évaluateur dans la gestion du processus évaluatif. Bien évidemment, les questions de faisabilité et d’utilité de l’évaluation, ainsi que les étapes méthodologiques seront déroulés. L’atelier sera construit autour des expériences des participants et se fera sous forme d’échanges. Des exemples concrets d’évaluation numérique des cadres de coopération des Nations Unies au Soudan et au Burkina Faso seront également au centre des discussions.


Évaluateur Qualifié (EQ) et bilingue, Serge Eric est le Vice-Président IDEAS, Co-Président de « EvalIndigenous », et ancien Président de l’AfrEA. Avec 20+ d’expérience, il travaille comme expert international et Professeur Invité avec les universités, entités publiques et privées, bailleurs de fonds et les agences des Nations Unies. Il a dirigé des évaluations en Afrique, Europe, Amérique du Nord, Moyen-Orient et Asie. Il a écrit des livres, des kits de formation, plusieurs rapports et articles.

Mesurer le genre pour transformer ses pratiques (niveau intermédiaire) - Othmane Chaouki

L’intégration du genre dans les actions est devenue un enjeu central pour les acteurs et actrices de la coopération au développement. Cette demande croissante d’intégration du genre doit s'accompagner par une meilleure prise en compte de cette approche dans les démarches d'apprentissage des organisations. De ce fait, les évaluateur·rice·s qui accompagnent ces démarches font face à plusieurs questionnements et défis afin d'être en capacité de mettre en œuvre une approche genre dans le cadre d’une évaluation : 

Cet atelier, à destination de commanditaires d’évaluation et d'évaluateur·rice·s, a pour objectif de partager des concepts, outils, et pratiques de référence, autour de l'Approche Intersectionnelle de Genre dans l'évaluation. L'atelier posera ainsi les bases de ce qu'est une évaluation avec une Approche Genre, et vise à renforcer les capacités des participant·e·s  à intégrer un questionnement autour du genre dans leur évaluation, et leurs capacités à collecter et analyser des données genrées.  Comme toutes les démarches du F3E, cet atelier sera participatif. Les questions d’outillage et d’apprentissage entre pairs seront centrales. 


Après des études en genre et développement, j'ai travaillé au Vietnam et en Birmanie comme référent genre auprès de CARE International, en tant qu'expert technique terrain. Au F3E, je suis en charge du développement des méthodologies de prise en compte du genre dans les dispositifs et démarches d'apprentissage du réseau, via la mise en oeuvre de formations-actions, de communautés de pratique, et l'accompagnement d'études autour de l'Approche Intersectionnelle de Genre.

Plateforme numérique de gestion des connaissance et l’amélioration de la décision publique (niveau avancé) - Beaudelaire Hounliho

L’une des dimensions clé de la gouvernance de l’évaluation qu’il convient de mettre en exergue est comment les décideurs publics peuvent utiliser grâce aux technologiques numériques les résultats d’évaluation pour améliorer la prise de décision publique. La mise en place des plateformes numériques de gestion des connaissances peut aider les gouvernements et administrations à disposer des données probantes devant éclairer la prise de décision. 

Dans la pays en développement, la planification du développement et la budgétisation sont par exemple deux processus décisionnels complémentaires nécessitant l’utilisation de données probantes pour fixer des objectifs et définir une rationalité d’intervention et de ressources pour les atteindre. Les résultats d’évaluation servant de source d’apprentissage et de connaissance sur l’action mise en œuvre, ils contribuent à la prise de décision. Mais l’évaluation ne peut contribuer à travers ses résultats à la prise de décision que s’il y a un cumul de preuves, donc de données probantes fournies par plusieurs évaluations concernant des programmes de même type mis en œuvre dans différents contextes. Ce n’est que par la collecte systématique d’information sur les activités, les caractéristiques et les résultats des programmes mis en œuvre que des preuves peuvent être cumulées et aider à la prise de décision au sein d’une organisation. Les plateformes de gestion des connaissances étant des systèmes numériques en ligne rassemblant un ensemble unique de services pour la gestion, le partage et la diffusion des connaissances, ils peuvent servir à rassembler et à rendre disponible au sein d’un secteur, d’une administration ou d’un territoire les données probantes nécessaires à la prise de décision. 

L’intérêt de cette présentation est de montrer comment les connaissances et apprentissages issues de plusieurs évaluations peuvent être mises en cohérence et numérisées en termes de données probantes et rendues accessible aux décideurs.


Titulaire d’un Doctorat en Sociologique du Développement, d’un DESS en Administration Publique, d’un Master en Planification, Monsieur Beaudelaire HOUNLIHO est un expert en évaluation des politiques publiques. A ce titre il a conduit déjà plusieurs missions d’évaluation au profit de organismes publics et agences de développement en Afrique. Il a 16 ans d'expérience. Il est actuellement le Secrétaire générale de l'Association des Professionnels en Analyse et Evaluation de Programme au Bénin. 

Évaluation participative : pourquoi et comment (niveau intermédiaire) - Sandrine Beaujean

Une évaluation est participative lorsqu’elle implique activement les parties prenantes d’une intervention (partenaires locaux, bénéficiaires, …) à toutes les étapes du processus évaluatif. Une évaluation participative permet de recueillir et croiser différents points de vue et expériences. Elle permet aussi d’inclure les bénéficiaires et partenaires dans la prise de décisions et l’amélioration des programmes grâce à des approches de co-développement des recommandations. Les technologies numériques offrent de nombreux avantages à ce niveau mais présentent également un certain nombre de risques à prendre en compte pour assurer une participation équitable et non biaisée.

Pourquoi et comment mettre en place une approche participative ? L’atelier va répondre à ces deux questions en partageant l’expérience d’Artemis en la matière et en facilitant un échange entre les participantes pour leur permettre de partager leurs propres expériences.

Le contenu de l’atelier suivra la logique suivante :

Cet atelier s’adresse à des évaluateurtrices ou à des commanditaires d’évaluation. Une mixité de niveaux (débutant, intermédiaire, avancé) en matière d’évaluation est attendue et souhaitée.

Une approche participative sera proposée pour l’animation de cet atelier. L’animatrice aura recours à des méthodes d’animation et des outils numériques favorisant la participation de toustes, méthodes et outils qu’elle utilise dans ses évaluations ou formations. Les principes de « Participation », « Activation » et « Faire la preuve par la démonstration » guideront cet atelier.

Sandrine Beaujean est diplômée en politique internationale. Elle a plus de 25 ans d’expérience dans le domaine de l’aide au développement et 15 ans d’expérience dans l’évaluation de projets ou programme d’aide au développement. Sandrine est également formatrice, spécialisée dans l’andragogie. Sandrine a rejoint Artemis Information Management en 2013 où elle est responsable du département « Renforcement de capacités et Evaluation ». Elle est vice-présidente de la SOLEP et membre du Conseil d’Administration du RFE.

Demi-journée, après-midi du 4 juillet

Collecte et Analyse numérique des données en évaluation : cas pratique d'utilisation de l'outil ODK - Joseph Essomba Eyenga

L’enjeu des données numériques est plus que jamais au cœur des questions économiques et des modèles qui les sous-tendent. Pour certains d’entre eux (modèles), il s’agit de valoriser les données des utilisateurs à des fins publicitaires, et pour d’autres d’analyser ces données afin de mesurer les résultats produits par les interventions. Ces services produits par les données numériques concernent des domaines aussi divers que la santé, l’éducation, l’énergie, les transports, le tourisme, la culture et bien sûr l’évaluation. L’intérêt pour les professionnels d’évaluation d’intervenir dans la collecte numérique des données sera d’autant plus important que la révolution numérique permettra l’acquisition de nouvelles compétences chez ces professionnels, et aussi de les rendre moins dépendants des statisticiens et informaticiens, ou même la reconversion de ces derniers en professionnels d’évaluation. Open Data Kit (ODK) est un ensemble d'outils en logiciel libre permettant de recueillir des données à l'aide d'appareils mobiles Android et de les envoyer vers un serveur en ligne, même sans connexion Internet s au moment de la collecte des données sur le terrain. Il permet également de disposer des renseignements GPS, des photos, des vidéos ; il existe également des possibilités d’avoir des données confidentielles à travers l’auto administration de certaines questions même audios. Créé par des développeurs du département d'informatique et d'ingénierie de l'Université de Washington, ODK est un projet de logiciel libre, accessible à tous.  Cet atelier vise globalement à donner les capacités techniques aux évaluateurs sur l’utilisation des nouvelles technologies de l’information dans la collecte et l'analyse  des données d’enquêtes. Plus concrètement, il sera question de former les évaluateurs dans le développement des formulaires et l'analyse des données collectées.


M. ESSOMBA est Statisticien Démographe, et Consultant à la Banque Mondiale pour les évaluations d’impact. Il est Secrétaire général adjoint de l'Association camerounaise pour l'évaluation du développement. Il y porte plusieurs dossiers, dont le projet de Third Monitoring Partner avec l’UNICEF. Il est co-coordonnateur du Réseau francophone des Évaluateurs émergents (RF-Ee).

L’utilisation pratique de l’outil PowerBI pour une analyse probante des données de suivi-évaluation : Projet de formation visant l’autonomisation des femmes dans la francophonie - Lydiane Josepha Mbia et Honoré Menzan

L’atelier proposé se déroulera en deux phase : (i) une phase théorique et (ii) une phase pratique. Au cours de la phase théorique, nous présenterons les objectifs et le plan de la formation puis aborderons la définition et la discussion sur les concepts importants liés au thème ainsi que toutes les explications nécessaires à la compréhension de l’outil PowerBI. De plus, au cours de cette phase, nous présenterons les données de suivi-évaluation d’un projet de formation visant l’autonomisation des femmes dans la francophonie et organiseront par la suite les participant·e·s en groupe de 3 à 4 personnes en vue de la phase pratique. Lors de la phase pratique, nous assisterons les participant·e·s à installer l’application PowerBI sur leurs laptops puis mettrons à leur disposition une base de données pour ladite phase. Ensuite, les participant·e·s travailleront en équipe sous notre directive et seront assisté·e·s pas à pas jusqu’à la fin de la formation.  A la fin de la formation, il sera soumis aux participants un formulaire visant à évaluer la qualité de l’atelier.


Lydiane Josepha Mbia est une jeune camerounaise, évaluatrice indépendante au System-Wide Evaluation Office du bureau exécutive du Secrétaire général des Nations Unies et s’intéresse beaucoup au développement international ainsi qu’aux voies de gouvernance pour accroître la performance institutionnelle. Elle est titulaire d’une maîtrise en administration publique de l’Université de Londres de Roehampton et d’un certificat en évaluation du développement de l’ENAP Québec-Canada.

Honoré Menzan est un jeune ivoirien titulaire d’un diplôme d’Ingénieur Statisticien Economiste. Amoureux des challenges, j’occupe depuis janvier 2018, le poste de « Portfolio Data Analyst » à la Banque Africaine de Développement. J’ai dans ce cadre, contribué notamment aux travaux portant sur la publication des données à la norme « International Aid Transparency Initiative (IATI) ». J'ai animé plusieurs ateliers notamment lors précédentes des conférences du FIFE et de l'AfrEA.

Les critères internationaux d'évaluation genre des programmes publiques - Aline Nijimbere

Détails de l'atelier à venir


Je suis une avocate, évaluatrice francophone des projets et programmes publiques en genre et violences basées sur le genre depuis 20 ans. Je suis déjà intervenue lors du FIFE2014, pour former sur les critères internationaux d'évaluation des programmes publics en genre, en vue de préparer le 15e sommet des présidents africains de l'OIF. Je suis une consultante indépendante et je travaille beaucoup pour les projets de la Banque mondiale et BAD.

Des standards d’évaluation, pourquoi, pour qui ? - Claudine Morier

Sur la base de l’expérience suisse, nous explorerons les raisons qui peuvent amener une association nationale d’évaluation (ANÉ) à développer ses propres standards d’évaluation, la démarche suivie pour y arriver, ainsi que les apports de ces derniers pour la communauté de l’évaluation. Nous survolerons les standards existants au niveau international et nous intéresserons à l’utilité de tels outils à la fois pour les évaluateur·rice·s, les commanditaires d’évaluation et les associations nationales d'évaluation (ANÉ). 


Claudine Morier est évaluatrice indépendante. Après avoir travaillé pour deux bureaux d’évaluation et de conseil, elle rejoint le Contrôle fédéral des finances en tant qu’évaluatrice et responsable de projets. A son compte depuis 2020, elle mène des projets d’évaluation en tant qu’évaluatrice indépendante et a co-fondé une entreprise spécialisée en développement, accompagnement et évaluation de projets d’attractivité territoriale. Claudine est titulaire d'un Bachelor en sciences politiques et d'un Master en Politique et Management Publics, ancienne membre du Comité de la Société suisse d’évaluation et actuelle vice-présidente du Réseau francophone de l’évaluation (RFE).

La carte des usages d'impact - Karen Rousseau et Agathe Devaux-Spatarakis

Vous êtes fatigués des débats méthodologiques autour des évaluations d’impact ? Nous vous proposons de retourner la perspective en posant d’abord la question de l’usage de l’évaluation avant celle de l’approche employée. La meilleure évaluation d’impact est celle qui est utile. En fonction du contexte et des enjeux, l’une ou l’autre des diverses approches méthodologiques peuvent être mobilisées. La carte des usages de l’évaluation d’impact a été développée par Quadrant Conseil, Strategic Design Scenario et l’AFD comme un outil pédagogique au service des praticiens de l’évaluation, lorsqu’ils et elles ont besoin de comprendre quelle est la nature du besoin d’évaluation, et de proposer des pistes de solution à leurs interlocuteurs et interlocutrices. Cette carte a été conçue en récoltant les usages concrets des évaluations d’impact à l’AFD, elle peut néanmoins être utilisée et adaptée à d’autres institutions. Elle est accompagnée de fiches décrivant les différentes approches d’évaluation d’impact, leurs étapes et les conditions à réunir pour les mettre en œuvre. Cet outil est mis à la disposition de la communauté des praticiens et praticiennes de l'évaluation sur le site afd.fr. en licence libre. Venez découvrir et tester cet outil avec nous !


Karen Rousseau est responsable d'une unité du département évaluation et apprentissage de l’AFD depuis 2021. Titulaire d’un master en évaluation de politique publique et d’un doctorat en science de l’environnement, Karen a travaillé en bureau d’étude en évaluation avant de rejoindre le département de l’évaluation de l’AFD en 2016.

Agathe Devaux-Spatarakis est consultante et chercheuse pour la Scop Quadrant Conseil. Elle conduit des missions d’évaluation de politiques publiques et d’accompagnement méthodologique pour le compte d’organisations publiques ou d’ONG en France et à l’international. Docteure en science politique, elle est spécialisée dans l'évaluation des innovations et expérimentations sociales ainsi que l’étude de l’utilisation des résultats d’évaluation par les responsables politiques.

Journée entière du 4 juillet

Parcours Méthodologique 360° en Formulation - Analyse et Evaluation des Politiques Publiques : Conception Numérisation et Mise en œuvre - Déo-Gratias Houndolo

Cet atelier sera organisé en trois temps : présentation des notions théoriques et exemples pratiques, travaux de groupe pour internaliser les notions couvertes, discussion en plénière sur les défis rencontrés en groupe et les solutions possibles dans l’application des notions.  En matière de contenus théoriques, la première partie portera sur la définition d’une politique publique et la démarche méthodologique d’élaboration d’une politique publique. Les notions d’analyse de situation, de théorie de changement seront aussi couvertes. Ensuite, la grille séquentielle d’une politique publique sera présentée avec un focus sur les approches pour faire émerger une politique publique et son inscription à l’agenda. Cette première partie sera illustrée par des exemples concrets. Dans la séquence suivante, les dimensions suivant lesquelles l’analyse d’une politique publique est conduite seront présentées et l’interconnexion entre elles sera abordée. L’atelier couvrira des dimensions comme la faisabilité, l’efficacité, l’équité, le coût, la durabilité, etc. Cette deuxième partie sera illustrée par des exemples concrets. Dans la troisième séquence, une introduction aux méthodes d’évaluation d’impact sera faite en couvrant notamment la perspective de la contribution et celle de l’attribution.  Cela sera illustré avec des exemples concrets pour permettre aux participants de toucher du doigt la notion de contrefactuel en évaluation d’impact. Dans son volet pratique, l’atelier prévoit un exercice de groupe pour permettre aux participants de discuter entre eux pour mieux internaliser les notions couvertes, avec la facilitation des formateurs. La dernière partie de l’atelier consistera à présenter aux participants l’une des innovations récentes en matière de systèmes digitalisés pour le suivi-évaluation dynamique appelé Le Baromètre. L’atelier va être conclu par une courte évaluation de son contenu et la parole aux participants.


Déo-Gracias HOUNDOLO est Spécialiste Senior en Evaluation et Coordinateur Régional du Programme Ouest-Africain de Renforcement des Capacités et Evaluation d’Impact (WACIE) de l’Initiative Internationale pour l’Évaluation d’Impact (3ie). Il est membre fondateur de l’Institut Africain de Suivi et Évaluation d’Impact des Politiques Programmes et Projets de Développement (Le Baromètre). Son expertise couvre la digitalisation des systèmes de suivi évaluation, l’analyse et l’évaluation d’impact.

Participation des enfants et des jeunes à la recherche et à l’évaluation : défis, enjeux et perspectives méthodologiques - Ousséni Kinda

La Convention des Nations Unies relative aux droits de l’enfant  considère que les enfants sont des sujets de droits, habilités à participer aux décisions qui les concernent, conformément à l’évolution de leurs capacités, et à assumer la responsabilité croissante des décisions qu’ils sont capables de prendre pour eux-mêmes. A ce titre, les organisations de défense des droits de l’enfant consacrent de plus en plus des efforts considérables à la promotion de la participation des enfants et des jeunes dans les évaluations et les recherches. Cette forme de participation implique des processus de recherche et d'évaluation de programmes et/ou de politiques sensibles à la perspective des enfants et des jeunes. Cependant, à ce jour, ces investissements n’ont pas modifié de manière significative et durable le rôle des enfants dans les évaluations et les recherches. L’atelier et se propose d’explorer la participation des enfants et des jeunes à l’évaluation et à la recherche en s’inspirant d’initiatives et d’exemples innovants dans des contextes africains. Il se focalisera sur les méthodes et outils permettant de faire participer les enfants et les jeunes en prenant en compte leur vécu quotidien et leur contribution. En outre, l’atelier adoptera une approche d’analyse de cas en mettant en exergue les bonnes pratiques, les enjeux et les défis méthodologiques à prendre en compte dans la conception du protocole de recherche et/ou d’évaluation.

Cet atelier d’un jour sera facilité par Susan Igras de l’Institut de la Santé de la Reproduction-Université de Georgetown (USA), chercheure internationale très expérimentée en matière de participation des enfants et des jeunes dans l’évaluation et la recherche et Ousséni Kinda (NRC) -spécialiste S&E ayant vécu et mis en œuvre des expériences innovantes relatives à la participation en Afrique de l’Ouest et du Centre. 

Ousséni a occupé des postes de Directeur en S&E avec des institutions telles que le FIDA, NRC, Save the Children. Ses travaux récents se sont focalisés sur l’utilisation de la technologie dans les systèmes de suivi et évaluation, le renforcement de capacités en évaluation axée sur le genre, les enfants et les jeunes et sur les approches d'évaluation autochtones. Il est membre de divers réseaux d'évaluation, auteur et co-auteur d’articles et de livres.

Développement de carrière dans le domaine du suivi et de l’évaluation - Sîm-Yassah Awilelo Badjo

Vous êtes jeunes évaluateurs émergents ou un professionnel souhaite embrasser une carrière dans l’évaluation. Vous vous posez les questions suivantes : que faut-il faire pour trouver un emploi dans le domaine du suivi et de l'évaluation ? Comment se faire embaucher en tant que responsable  suivi et évaluation ? 

Alors cet atelier est fait pour vous. Je vous laisse juste imaginer...ce que sera votre regret si jamais vous ratez ce rendez-vous unique pour explorer les possibilités de construire une carrière dans le domaine du suivi et de l'évaluation en participant à l’atelier sur le thème « Développement de carrière dans le domaine du suivi et de l’évaluation ».

Le suivi et l'évaluation sont considérés comme un domaine technique dans lequel les jeunes sont peu impliqués. Et comme pour d'autres domaines de travail, il est impératif que les évaluateurs jeunes et émergents remplissent certaines conditions pour leur permettre d'accéder à des opportunités dans le domaine de l'évaluation. Dans cette ressource, Sîm-Yassah A. BADJO, spécialiste  Sénior en Suivi et Évaluation partagera avec les jeunes professionnels des conseils utiles pour démarrer une carrière dans le domaine du suivi et de l'évaluation.

Cet atelier vise à aider les jeunes et évaluateurs émergents  à identifier vos domaines de passion dans le secteur de l'évaluation, répondre à certaines questions clés sur la poursuite d'une carrière dans ce domaine, donner un aperçu des compétences que vous devrez acquérir et vous donner l'occasion de planifier vos prochaines étapes. Si vous souhaitez faire carrière dans le domaine du suivi et de l'évaluation (S&E), vous pouvez prendre plusieurs mesures pour augmenter vos chances de réussite.

Cet atelier  vous permettra d’avoir des conseils et des stratégies pour obtenir un emploi dans le domaine du suivi et de l'évaluation, notamment en acquérant une formation et une expérience pertinentes, en construisant un réseau professionnel et en développant des compétences clés. Il explore également les différents types d'emplois disponibles dans le domaine du suivi et de l'évaluation, ainsi que les possibilités de carrière dans ce domaine.

Ce que vous apprendrez :


Sîm-Yassah est un professionnel de développement passionné par  l'évaluation. Au cours des 15 dernières années, il a accompagné des centaines de professionnels, notamment les jeunes du secteur public ou privé y compris les ONGs nationales et internationales, à renforcer leurs capacités en évaluation et à améliorer leurs performances et impacts. Actuellement consultant, spécialiste  Sénior en Suivi et Evaluation chez  CLEAR FA,  Sîm-Yassah a collaboré  avec des organisations publiques et privées y compris la Commission de l’Union Africaine, la Banque Africaine de Développement, la Banque Mondiale, le Système des Nations Unies, le réseau panafricain de l’évaluation (African Evaluation Association), Plan International Togo, etc. Sim-Yassa. Sim-Yassah s'intéresse spécialement au 'Made in Africa Evaluation( MAE)', - l’évaluation dans le contexte africain-  qui vise à accroître l'influence des méthodes, théories et philosophies d'origine africaine dans l'évaluation et le développement à l'échelle mondiale, en particulier les évaluations destinées à bénéficier à l'Afrique et la manière dont elles peuvent accélérer le développement de l'Afrique en donnant aux Africains les moyens d'agir.



Les usages de l'intelligence artificielle pour l'évaluation de politiques publiques - Antoine Serandour et Alix de Saint-Albin

C'est avec un grand plaisir que nous vous présentons notre atelier de travail intitulé « Les usages de l'intelligence artificielle pour l'évaluation de politiques publiques ». Cet atelier unique est conçu pour les professionnels de l'évaluation de politique publique, quel que soit leur niveau d'expérience.

Cet atelier explore et démontrer comment l'IA peut être utilisée de manière efficace (et éthique ?) pour améliorer la qualité et l'efficacité des évaluations.

Durant cet atelier, nous passerons en revue les différents outils d'IA existants aujourd'hui. Nous vous ferons découvrir comment ces outils fonctionnent, et quelles sont leurs potentialités en termes d'évaluation de politiques publiques. Qu'il s'agisse d'algorithmes d'apprentissage automatique, de systèmes prédictifs ou d'outils d'analyse de données volumineuses, l'IA offre un éventail de possibilités inédites pour le secteur de l'évaluation.

L'atelier se veut interactif et pratique. Après une présentation des outils, vous serez invités à expérimenter ces derniers en petits groupes. L'objectif est de comprendre, par la pratique, comment l'IA peut être intégrée dans les processus d'évaluation. 

En fin d'atelier, nous produirons collectivement une communication sur les usages concrets de l'IA en évaluation de politiques publiques. Ce sera une occasion de partager vos expériences, vos découvertes et vos réflexions sur le potentiel de l'IA dans ce domaine.

Nous vous encourageons à saisir cette opportunité unique d'apprentissage et d'échange. Venez enrichir vos connaissances, développer de nouvelles compétences et contribuer à une réflexion collective sur l'avenir de l'évaluation de politiques publiques à l'ère de l'intelligence artificielle. Rendez-vous au Forum international francophone de l'évaluation 2023 à Luxembourg pour une expérience enrichissante et stimulante!

(Note : Rédigé par chatgpt4 sur le prompt suivant « Rédige un texte de 2500 caractères pour présenter un atelier de travail sur le thème "les usages de l'intelligence artificielle pour l'évaluation de politiques publiques". Cet atelier de travail est ouvert à des professionnels de l'évaluation de politique publique de tous niveaux d'expérience. Il prend place lors du Forum international francophone de l'évaluation 2023 à Luxembourg. Les participants bénéficieront d'une présentation des outils d'IA existants aujourd'hui, leur fonctionnement et potentiels. En petits groupes, les participants expérimenteront ces outils, et produiront collectivement une communication sur les usages concrets de l'IA en évaluation »)

Antoine Serandour, étudiant de l’école Normale Supérieur de Lyon en sociologie de l'innovation,  diplômé en physique statistique, directeur des opérations de l’association EffiSciences. Alix de Saint-Albin, observateur et praticien de l’évaluation depuis 2004, cabinet Pluricité.