Nous procédons actuellement au transfert de nos services et de nos renseignements sur le Web vers Canada.ca.

Le site Web du Secrétariat du Conseil du Trésor du Canada restera accessible jusqu’à  ce que le transfert soit terminé.

Évaluation quinquennale du Cadre de responsabilisation de gestion


Informations archivées

Les informations archivées sont fournies aux fins de référence, de recherche ou de tenue de documents. Elles ne sont pas assujetties aux normes Web du gouvernement du Canada et n’ont pas été modifiées ou mises à  jour depuis leur archivage. Pour obtenir ces informations dans un autre format, veuillez communiquez avec nous.

ANNEXE D  COMPARAISONS INTERNATIONALES

 

Royaume-Uni (R-U)

États-Unis (E-U)

Union européenne (UE)

Nom du programme/cadre

Examen de la capacité (Capacity Review -CR)

Programme de gestion du Président  (President's Management Agenda - PMA)

Cadre d'auto‑évaluation des fonctions publiques (CAF)
[Étude sur l'utilisation du Cadre d'auto‑évaluation des fonctions publiques (CAF) dans les administrations publiques européennes]

Type de programme/cadre

Capacité organisationnelle : L'objectif consiste à améliorer la capacité de la fonction publique de manière à réaliser les objectifs de prestation d'aujourd'hui et à se préparer à relever les défis de demain [Take-off or Tail-off? An evaluation of the Capability Reviews programme]

Rendement organisationnel

Capacité organisationnelle : L'objectif consiste à améliorer la qualité de l'administration des fonctions publiques

Depuis quand le programme est‑il en place?

Depuis 2005

Depuis 2001

Lancé en 2000. D'importantes mises à jour ont été effectuées en 2002 et en 2006. Adopté par environ 1 755 organisations publiques de l'UE au milieu de 2009.

Objet du programme

Évaluer la capacité et soutenir l'amélioration

Améliorer le rendement des organismes dans 5 domaines particuliers

Programme lancé par les États membres de l'UE pour la qualité de la gestion dans le secteur public

Brève description du cadre

Le CR renferme 10 éléments de programmes dans les 3 grands domaines suivants :

  • leadership
  • stratégie
  • prestation

Le PMA renferme 24 normes définies dans le cadre de 5 initiatives clés :

  • gestion stratégique du capital humain
  • compétitivité en matière d'approvisionnement
  • amélioration du rendement financier
  • élargissement du cybergouvernement
  • intégration du budget et du rendement

Le CAF est fondé sur la Fondation européenne pour la qualité du management (European Foundation for Quality Management - EFQM) et sur le modèle de l'université allemande des sciences administratives à Spire. Il est constitué de 9 critères - 5 moteurs et 4 résultats - qui sont subdivisés en 28 sous‑critères.

Quels indicateurs sont utilisés?

Cinq catégories d'évaluation sont utilisées; 0 = « graves préoccupations »; 4 = fort - solide capacité en place pour la prestation future

Un système de double carte de pointage est utilisé. Des normes (indicateurs) sont utilisées afin de mesurer :

  • le statut actuel des initiatives
  • les progrès en matière de l'amélioration

Les notes sont accordées par rapport au Green Plan (dans ce cas, comment réussir à d'obtenir le feu vert pour toutes les initiatives)

Considère les moteurs comme une forme de capacité organisationnelle, et les résultats comme des extrants, et il inclut des critères visant à mesurer les deux. Fondé sur une auto‑évaluation

Est‑ce un modèle fondé sur les résultats; c'est‑à‑dire, quels résultats de rendement de gestion ou de capacité organisationnelle en particulier sont évalués?

L'accent est sur les processus et les systèmes organisationnels qui favorisent la capacité de prestation.

Les notes sur l'état actuel sont vérifiables au moyen de la note d'évaluation du rendement de l'organisme. Les critères de progression sont plus subjectifs.

Voir ci‑dessus


Méthode d'évaluation

Royaume-Uni (R-U)

États-Unis (E-U)

Union européenne (UE)

Comment l'évaluation est‑elle menée?

Examen externe annuel des principales capacités

Auto-évaluation trimestrielle avec la participation du Conseil de gestion du Président (President's Management Council - PMC)

Examen interne, habituellement par des équipes de projet nommées par l'organisation

Qui mène l'évaluation, quelles sont les caractéristiques des évaluateurs?

Équipes d'examen de la capacité situées au secrétariat du Cabinet. Une équipe de cinq personnes : 3 personnes chevronnées de l'extérieur du gouvernement central et 2 directeurs généraux d'autres ministères. Chaque équipe inclut habituellement 2 membres du secteur privé (nota : équipes réduites à 3 membres à la deuxième ronde d'évaluation). [National Audit Office Assessment of the Capability Review Programme, février 2009]

Indicateurs de progrès internes et Green Plans examinés par l'Office of Management and Budget (OMB)

Équipes de projets internes

Est‑elle purement fondée sur des éléments probants ou l'évaluateur se sert‑il de son jugement? Quel est le dosage entre les éléments probants et le jugement?

Jugement : les équipes d'examen établissent des jugements au sujet des 10 éléments sur une échelle de 0 à 4 en utilisant une série sous‑jacente de 40 questions.

Fondée sur des éléments probants : des indicateurs internes sont notés au PAR. Le jugement, le PMC et l'OMB contribuent aux initiatives du Green Plan.

Jugement fondé sur le CAF et sur les preuves recueillies pour chaque sous‑critère en fonction d'un consensus de groupe.

Utilise‑t‑on une approche fondée sur le risque? (Les composantes du cadre sont‑elles toutes évaluées ou est‑ce que certaines composantes sont utilisées à des moments différents?)

Toutes les composantes sont évaluées.

Toutes les composantes sont évaluées.

Une évaluation complète est menée chaque fois, mais une marge de manœuvre est prévue aux fins de l'application du CAF.

Comment les organisations sont‑elles choisies aux fins de l'évaluation? Les organisations sont‑elles toutes évaluées ou  existe-t-il un processus de sélection?

Tous les organismes centraux sont évalués.

Toutes sont évaluées dans le cadre d'un processus de notation trimestriel.

Auto‑évaluation; facultative.

Différentes approches sont‑elles utilisées pour les organisations des tailles et de types différents (est‑ce un modèle d'application universelle)?

Universel.

Universel.

Le CAF doit être mis en œuvre en respectant la structure des 9 critères et des 28 sous‑critères, et du système de notation. De plus, chaque organisation et pays doit tenir compte de ses particularités.

Les résultats du programme modifient‑ils la rémunération des membres de la haute direction? Quels sont les conséquences d'un bon ou mauvais rendement?

Il existe des liens avec les décisions salariales touchant les secrétaires permanents. Comme l'accent est mis sur l'amélioration, un faible rendement entraîne de l'aide au besoin, mais les secrétaires permanents doivent rendre des comptes.

Il existe des liens avec le budget et les évaluations des chefs de l'exploitation. La carte de  pointage de la direction du conseil exécutif établit un survol des progrès dans tous les organismes.

Selon la façon dont le cadre est appliqué.


Conséquences de l'évaluation

Royaume-Uni (R-U)

États-Unis (E-U)

Union européenne (UE)

Quels sont les conséquences immédiates de l'évaluation?

Chaque ministère doit créer un plan d'action afin de rectifier les problèmes cernés. [National Audit Office Assessment of the Capability Review Programme, février 2009]

Les organismes doivent créer des Green Plans décrivant comment ils vont s'améliorer relativement à chacun des critères évalués.

Selon l'application. Cependant, une récente enquête auprès de 133 organisations ayant utilisé le CAF a révélé que 87 p. 100 avaient entrepris des initiatives d'amélioration en fonction de l'évaluation. [Étude sur l'utilisation du Cadre d'auto‑évaluation des fonctions publiques (CAF) dans les administrations publiques européennes - 2005]

Quelles sont les améliorations au chapitre de la prestation de services ou du rendement pour les citoyens?

Difficile de distinguer les améliorations attribuables au CR de celles résultant des autres initiatives.

La prise en considération des résultats du PAR s'intègre au PMA. Les chefs de l'exploitation doivent rendre compte des résultats.

L'enquête révèle que les initiatives d'améliorations susmentionnées pourraient ou non mener à une amélioration des résultats pour les citoyens. Question difficile à répondre en raison de problèmes d'attribution et de retards.

Coût / Optimisation des ressources

La première ronde d'entrevues a coûté 5,5 millions de livres; ce coût a été ramené à 4,3 millions à la deuxième ronde (environ 226 000 livres par ministère). Il est difficile d'évaluer le coût des travaux internes de l'examen dans les ministères. Il est difficile de déterminer le degré d'optimisation des ressources, étant donné qu'on ne connaît pas les coûts totaux. Les ministères ont aussi de la difficulté à distinguer la valeur des mesures liées aux examens de celles qui sont liées à d'autres programmes continus. Le secrétariat du Cabinet demande 150 000 livres aux ministères pour l'examen.

S. o.

S. o.

Principaux avantages

Les ministères ont des membres du conseil désignés qui coordonnent les mesures relatives au CR. Cela a permis de mettre l'accent sur la gestion dans les ministères et d'établir des liens entre les ministères au titre du partage des leçons retenues.

Attention de la haute direction dirigée vers les enjeux de gestion importants. Parmi les autres avantages, mentionnons des décisions davantage fondées sur des faits et une meilleure coordination interne.

Concentre les efforts vers l'amélioration organisationnelle et fournit une méthodologie pour y arriver. Est fortement fondé sur la participation de tous les employés aux fins de l'instauration d'une culture organisationnelle de qualité totale.

Leçons retenues

Des ministères s'améliorent à l'égard du CR, mais on ne signale aucun lien avec le rendement réel sous l'angle de la prestation.

Il faut tenir compte des gestionnaires intermédiaires ainsi que des programmes exécutés par l'entremise de tierces parties.

Il faut envisager une comparaison avec des organisations de l'extérieur du gouvernement (par exemple, pratiques exemplaires)

Les critères jaunes peuvent habituellement être évalués objectivement, mais c'est difficile avec les critères verts (par exemple, la documentation est souvent incomplète; certaines évaluations sont difficiles à appuyer). [Review of OMB's Improved Financial Performance Scorecard Process.]

S. o.

Les résultats sont‑ils rendus publics?

Oui, ils sont publiés sur les sites Web des organismes.

Oui, ils sont publiés sur les sites Web des départements.

Les résultats demeurent la propriété de chaque organisation.


ANNEXE E  QUESTIONS D'ÉVALUATION

Section

Questions d'évaluation

Le CRG atteint‑il ses objectifs?

  • P1. Le CRG atteint-il ses objectifs fixés? Ceux-ci sont-ils appropriés, devraient-ils être élargis ou limités? Dans le cadre de cette évaluation, la pertinence et l'efficacité de chacune des 21 composantes de la gestion seront évaluées.
  • P2. Le CRG évalue-t-il adéquatement la gestion du secteur public et contribue-t-il à son amélioration?
  • P3. Le CRG devrait-il mesurer d'autres éléments généraux de la gestion (par exemple, élaboration de politiques, aptitude au leadership, systèmes de rapports de gestion)?
  • P4. Dans quelle mesure le CRG appuie-t-il les nombreux objectifs du gouvernement (par exemple, conseils et aide aux administrateurs généraux, Comité des hauts fonctionnaires, soutien du CT, évaluation horizontale des pratiques de gestion)?
  • P5. Quels avantages secondaires et applications le CRG offre-t-il à d'autres intervenants À qui les offre-t-il (par exemple, au Parlement)?
  • P6. Quelle incidence le CRG a-t-il eu (intentionnelle ou non)?
  • P9. Dans le contexte postérieur à la Loi fédérale sur la responsabilité où les administrateurs généraux sont des administrateurs des comptes, le CRG doit-il changer?
  • P11. Y a-t-il des preuves que d'autres organisations gouvernementales utilisent dans l'ensemble des cadres de gestion plus efficaces que le CRG?
  • A11. Dans quelle mesure le CRG devrait-il être utilisé pour appuyer d'autres initiatives du gouvernement (par exemple, écologisation du gouvernement, analyse comparative entre les sexes, conformité aux politiques, gestion des dépenses)?

Les évaluations du CRG sont‑elles robustes?

  • A3. La méthode d'évaluation du CRG est-elle fiable, juste et raisonnable? Dans quelle mesure le CRG évalue-t-il de façon fiable et exacte la gestion au sein et dans l'ensemble des organismes fédéraux (les résultats du CRG reflètent-ils avec exactitude la réalité, y compris le rendement ministériel)?
  • A4. Dans quelle mesure le processus du CRG devrait-il être fondé sur faits?
  • A5. La démarche d'évaluation actuelle est-elle appropriée (démarche actuelle par rapport à des démarches indépendantes ou fondées sur les risques)? Est-ce la manière la plus efficiente et la plus efficace d'obtenir les résultats du CRG? Les résultats sont-ils communiqués, utilisés et déclarés efficacement?
  • A6. Le CRG devrait-il traiter différemment les entités du portefeuille, les petits organismes et les entités non visées par le Programme de gestion du rendement?
  • A7. La stabilité de l'outil CRG peut-elle être utile?
  • A9. Les exigences du CRG en matière de rapports sont-elles trop lourdes? Comment le processus peut-il être simplifié?
  • A10 Le CRG est-il adéquatement harmonisé au cycle de planification du gouvernement du Canada?
  • A12. Quelles leçons pouvons-nous tirer de l'expérience d'autres pays qui permettraient d'améliorer l'administration de l'évaluation du rendement en matière de gestion?
  • P10 Que pouvons-nous apprendre des autres administrations? Comment évaluent-elles le rendement et les pratiques de gestion du secteur public? Quels autres outils y a-t-il sur la scène nationale et internationale? Comment se comparent-ils au CRG? Peut-on tirer des leçons applicables au CRG (par exemple, utilisation du secteur privé)?

Le CRG est-il rentable?

  • P7. Le CRG est-il rentable et optimise-t-il les ressources financières? Le niveau d'effort et l'incidence ministériels sont-ils justifiables?
  • P8. Quel est l'équilibre optimal entre les ressources et investissements ministériels requis et le niveau d'effort nécessaire pour assurer un rendement ministériel adéquat (sans nécessairement être optimal)?

La structure de gouvernance du CRG est-elle efficace?

  • Al. La structure de gouvernance du CRG est-elle efficace? Les rôles et les responsabilités, les systèmes et les processus d'approbation qui appuient le CRG sont-ils efficients et efficaces?
  • A2. Le SCT est-il la bonne entité pour évaluer et mesurer le rendement du gouvernement en matière de gestion (caractère adéquat, capacité, expérience)? Faut-il envisager une tierce partie? Dans l'affirmative, qui seraient les membres de cette tierce partie?
  • A8. Comment s'assurer que le CRG permet des conversations régulières et transparentes entre les administrateurs généraux?

ANNEXE F  HISTORIQUE DU CRG

L'historique, les objectifs et l'évolution du Cadre de responsabilisation de gestion[16]

Le Cadre de responsabilisation de gestion (CRG) a été établi en juin 1997 quand le gouvernement fédéral a désigné le Conseil du Trésor comme étant son conseil de gestion. L'une des nouvelles responsabilités du Conseil du Trésor consistait à diriger l'élaboration d'un programme visant à améliorer les pratiques de gestion dans les ministères et les organismes fédéraux.

Ces tâches devaient être exécutées sous l'égide de l'Initiative de modernisation de la fonction de contrôleur (MFC). La MFC était le résultat des travaux effectués sur une période de deux ans (de 1996 à 1998) par le Groupe de travail indépendant chargé de la modernisation de la fonction de contrôleur dans l'administration fédérale du Canada. L'état de la gestion dans le régime fédéral constituait une préoccupation de longue date qui s'est intensifiée dans le contexte des sévères coupures des dépenses de programmes fédéraux annoncées vers le milieu des années 1990, au moment où le gouvernement commençait à réduire le déficit en vue de l'éliminer. La prestation efficace des services fédéraux au moyen de ressources humaines et financières grandement réduites exigeait de porter une attention particulière à la gestion de ces ressources et de déployer un effort supplémentaire afin de comprendre à quoi devrait ressembler la gestion moderne dans le secteur public et comment la réaliser. La MFC allait constituer le pivot de la création du CRG cinq ans plus tard.

De 1998 à 2001, la phase 1 de l'Initiative de modernisation de la fonction de contrôleur a pris la forme d'un projet pilote. La phase 2 a été mise en œuvre à l'échelle de l'administration fédérale en 2001 sous l'égide de la Direction de la modernisation de la fonction de contrôleur. Cette phase 2 devait permettre aux fonctionnaires de première ligne de fournir des services aux citoyens avec efficience et efficacité. La Direction estimait que le cadre de gestion nécessaire pour y arriver devait englober les principaux concepts de la MFC, tout en ayant une plus large portée. Le cadre devait mobiliser directement les administrateurs généraux et faire en sorte qu'ils rendent compte de la gestion de leurs organisations.

La Direction de la modernisation de la fonction de contrôleur a poursuivi son travail et, avant la fin de 2002, elle avait examiné 13 modèles supplémentaires ou études de modernisation de la gestion et avait classé chacun d'eux dans l'un des cinq groupes établis. À la fin de ces travaux, la Direction avait réuni les éléments centraux de ce qui allait s'appeler le Cadre de responsabilisation de gestion à la fin de 2002. Le CRG était différent de la MFC, car il était dirigé par un champion (cadre supérieur) dévoué à la modernisation de la gestion dans l'administration fédérale et convaincu du bien‑fondé de ce nouvel outil.

En 2003, le secrétaire du Conseil du Trésor a vu le CRG comme un outil qui lui permettrait d'avoir des « conversations fondées sur des faits » avec ses collègues sous‑ministres au sujet de leurs ministères et de leurs principaux problèmes et préoccupations en matière de gestion. Également, en 2003, le Comité de coordination des sous‑ministres a approuvé le CRG à titre d'outil principal avec lequel le SCT mobiliserait les ministères et les organismes à l'égard des enjeux liés à la gestion.

Objectifs du CRG

Au début de 2003, le CRG avait été transformé. Il est passé d'une nouvelle collection d'idées au sujet de la gestion cherchant un appui, à un cadre par lequel le Secrétariat du Conseil du Trésor du Canada essaierait d'inculquer à l'ensemble de la fonction publique fédérale l'importance de la modernisation de la fonction de contrôleur.

Le CRG a réuni en un seul outil un éventail d'initiatives d'amélioration de la gestion au SCT qui avaient alors été lancées dans la foulée de la publication en mars 2000 du document intitulé Des résultats pour les Canadiens et les Canadiennes : Un cadre de gestion pour le gouvernement du Canada. Ce document avait identifié un certain nombre de composantes de gestion à l'égard desquelles les ministères et les organismes devaient améliorer leur rendement. Il avait aussi établi un programme de réforme de la gestion. Le CRG a constitué le premier modèle explicite et cohérent de haut rendement organisationnel avec lequel le SCT et les ministères et les organismes pouvaient travailler en collaboration.

Le CRG devait mettre l'accent sur les résultats de gestion plutôt que sur les capacités requises. Il consolidait la responsabilisation afin de gérer efficacement les organisations fédérales, de servir les ministres et le gouvernement et de fournir des résultats concrets pour la population canadienne. Le CRG avait pour objectif de permettre aux administrateurs généraux et à leur conseil exécutif de gérer leur organisation plus efficacement en les aidant à poser les questions centrales auxquelles il fallait répondre, ou encore en les aidant à surveiller et à évaluer leur propre rendement.

Le Cadre de responsabilisation de gestion constituerait aussi un outil de surveillance pour le SCT. Les ministères et les organismes devaient pouvoir démontrer au SCT qu'ils réalisaient des progrès au titre de la mise en œuvre du cadre.

Les trois objectifs initiaux du CRG étaient les suivants :

  1. Servir de base à un dialogue entre le SCT et les administrateurs généraux au sujet de l'état des pratiques de gestion.
  2. Façonner la contribution du SCT au processus du CHF (Comité de hauts fonctionnaires) visant à évaluer le rendement des administrateurs généraux au titre de la gestion de leur ministère ou de leur organisme.
  3. Façonner les rapports de gestion de façon à ce que les pratiques et les efforts visant l'amélioration puissent être plus facilement évalués.

De plus, le CRG devait permettre d'intégrer et de simplifier les rapports de gestion et la gestion de l'information au SCT. Le CRG était perçu comme étant une initiative horizontale au sein du SCT pouvant aider à abolir les obstacles entre les secteurs des programmes et les centres stratégiques.

L'évolution du CRG

Depuis l'instauration du CRG en 2003, la collecte et l'évaluation de renseignements ministériels pertinents sont effectuées par le personnel des programmes et des politiques du SCT. La Division du CRG exerce maintenant un rôle de coordonnateur afin de veiller à ce que le processus et la mise en œuvre des évaluations du CRG soient menés efficacement et en temps opportun.

De 2003 à 2005, le CRG a fonctionné sans structure globale de gouvernance. Il n'y avait pas de comité de hauts fonctionnaires du SCT directement responsable d'assurer l'orientation et la surveillance du projet. Il n'y avait pas de mécanismes en place pour faire observer les exigences du processus, comme les échéances. Au début de la ronde III en 2005, la Division du CRG a conclu un arrangement informel avec le comité des quatre secrétaires adjoints des secteurs de programmes (SASP) suivant lequel la Division pouvait soumettre ses problèmes aux SASP, qui essaieraient de les régler. Entre la fin de la ronde III et la fin de la ronde IV, une structure formelle de gouvernance a été mise en place et le Comité de supervision de la politique de gestion (CSPG) du SCT a été chargé d'assurer l'orientation et la surveillance générales.

Après la ronde III, un Forum de la stratégie du CRG a été constitué. Il vise principalement à établir une tribune au sein de laquelle les différends au sujet des notes d'évaluation peuvent être réglés. Cet arrangement a bien fonctionné étant donné que le Forum de la stratégie n'était pas limité par les mêmes contraintes de temps que le CSPG. Ce qui est ressorti de la dernière partie de la ronde IV et de la ronde V et qui se poursuit dans la ronde VI est une structure globale de gouvernance beaucoup plus efficace à laquelle participent le CPS et le Forum de la stratégie. Le CPS consacre du temps aux grands enjeux du CRG comme l'établissement de l'orientation générale, l'approbation de la méthodologie et du calendrier, ainsi que la surveillance du processus d'évaluation. Le Forum de la stratégie assure désormais l'orientation opérationnelle continue et le soutien dont le CRG a besoin, en particulier pour respecter des échéances, régler les différends et examiner les composantes de gestion ainsi que les évaluations ministérielles en général.

Depuis sa création, le CRG a constitué un ambitieux système d'évaluation utilisé par tous les principaux ministères fédéraux, les petits organismes et les très petits organismes. Dans chaque organisation, les évaluations couvrent actuellement 21 composantes de gestion, 68 éléments de preuve et environ 300 critères.

C'était le CRG en 2008, lors de la ronde VI d'évaluation. Même si de nombreux changements ont été apportés sur le plan de l'approche et de la méthodologie afin de faire état de l'expérience croissante de l'outil d'évaluation au SCT et de la volonté du SCT de s'améliorer à la lumière des problèmes et des possibilités ayant été déterminés, les éléments fondamentaux du CRG demeurent à peu près les mêmes qu'en 2003.

Les dix éléments initiaux demeurent en place, tout comme les attentes associées à chacun des dix éléments auxquels les gestionnaires de la fonction publique doivent se conformer. À chacun des éléments est aussi associé un certain nombre de composantes de gestion conçues pour donner une idée de la portée de chaque élément et pour suggérer comment évaluer les progrès accomplis par rapport aux objectifs. Même si le nombre de composantes de gestion a changé au fil des ans, l'objectif demeure le même. Afin de déterminer si des progrès ont été accomplis pour atteindre les objectifs liés aux dix éléments décrits par les composantes de gestion, des éléments de preuve ont été élaborés et ces derniers sont encore en place aujourd'hui.

Rondes I et II

Selon la prémisse des rondes I et II, les évaluations devaient être fondées sur les connaissances et les renseignements sur des ministères déjà disponibles dans le portefeuille du Conseil du Trésor (PCT). Les composantes de gestion n'étaient pas notées pendant la ronde I puisque les notes étaient subjectives, n'ayant aucune méthode formelle pour définir comment l'information recueillie serait utilisée pour évaluer les composantes de gestion. De plus, le CRG devait être une initiative ne s'ajoutant pas aux travaux dans les ministères. Dans la pratique, toutefois, des analystes du PCT devaient souvent communiquer avec des fonctionnaires ministériels pour obtenir des renseignements manquant. En réalité, le CRG a dès le début créé des tâches supplémentaires dans les ministères.

Ronde III

D'importantes modifications ont été apportées à la méthodologie lors de la ronde III. Elles concernaient la prémisse de base en ciblant les renseignements requis aux fins d'évaluation. Il a été décidé d'élargir la base de renseignements pour inclure des aspects liés aux enjeux ministériels de gestion demandés par les employés du PCT. Le nombre de composantes de gestion a donc augmenté à 41 lors de la ronde III.

Les ministères ont été invités à participer à la définition des composantes de gestion, ce qui leur a permis d'approfondir leur connaissance du CRG. Des arrangements formels ont aussi été conclus au titre de l'échange de renseignements liés au CRG entre le PCT et les ministères. Chaque ministère a désigné une personne-ressource du CRG et les renseignements devaient s'échanger entre la personne-ressource du CRG dans le ministère et l'analyste de programme du PCT affecté à ce ministère. Ce système du point de contact unique visait à régulariser l'échange de renseignements et à le rendre transparent. Il voulait mettre fin au processus suivant lequel différents analystes du PCT obtenaient de façon non coordonnée des renseignements sur le CRG de différentes personnes-ressources au sein d'un ministère.

La création de la première base de données sur le CRG a constitué une autre innovation en matière de consolidation. Elle visait à faciliter l'échange de renseignements sur le CRG et de documents d'évaluation au sein du PCT, ainsi qu'à consolider tous les renseignements en format électronique. Les renseignements recueillis dans les deux premières rondes ont été ajoutés à la base de données afin que puissent être comparés les points de vue de la ronde III sur le rendement ministériel avec les évaluations des rondes précédentes.

Pendant cette ronde, pour la première fois, des ministères ont été autorisés à examiner leurs évaluations provisoires et à présenter des observations à son sujet. Les composantes de gestion ont encore une fois été notées lors de la ronde III comme elles l'avaient été lors de la ronde II, c'est‑à‑dire de manière subjective.

Ronde IV

Les changements apportés à la méthode lors de la ronde IV devaient s'attaquer à la trop grande lourdeur du fardeau de l'évaluation (les analyses ratissant trop larges) et à l'augmentation marquée de la charge de travail du PCT et des ministères suite à l'examen de leurs évaluations provisoires. Pour la ronde IV, le nombre de composantes de gestion a été ramené à 20 et des méthodes formelles d'évaluation des 20 composantes de gestion ont été préparées. La méthodologie a été fournie aux ministères, et ces derniers ont eu la possibilité de fournir au PCT les renseignements qu'ils estimaient pertinents aux fins de leurs évaluations. Cela a permis d'éliminer l'élément de subjectivité des notes accordées.

La règle du point de contact unique a été renforcée au moyen d'une observation plus stricte et de la création d'une boîte de courrier électronique du CRG. Les personnes ressources du CRG pouvaient ainsi communiquer directement avec leur responsable du CRG au PCT comme avant. De plus, lors de la ronde IV, les ministères ont été invités à examiner une version électronique de leur évaluation dans la base de données du CRG, plutôt que d'en recevoir une copie papier.

Ronde V

La méthodologie du CRG a été encore renforcée lors de la ronde V au moyen de trois grandes innovations. Il y a d'abord eu l'instauration d'un système de notation fondé sur un « modèle de maturité » visant à rendre le processus de notation encore plus objectif. Ensuite, on a élaboré le portail du CRG afin de faciliter l'échange de renseignements, l'évaluation et l'examen, et d'accroître la transparence. Celui-ci est accessible aux utilisateurs autorisés du CRG, y compris le personnel du PCT et les personnes-ressources des ministères. Enfin, on a mis en œuvre une terminologie uniforme afin d'accroître la qualité et la cohérence des évaluations écrites.

Ronde VI

La ronde VI est demeurée assez stable, car seuls quelques changements mineurs ont été apportés à la méthodologie. Cette décision a été prise après l'annonce d'une évaluation quinquennale du CRG menée pendant la ronde qui pourrait entraîner la mise en œuvre de changements importants au cours des rondes VII ou VIII.

L'élimination d'une des ébauches de l'évaluation a constitué un changement important. Pour la ronde VI, il n'y a eu qu'une seule version provisoire précisant les notes. Un changement important est survenu à l'égard de la définition qui sert de fondement à l'évaluation des très petits organismes. Ce changement visait à alléger le fardeau de présentation de rapports de ces organismes tout en conservant une définition cohérente de ce qui constitue un tel organisme. Parmi les autres changements à souligner, mentionnons l'essai d'une approche fondée sur le risque pour certaines composantes de gestion liées à la composante des RH ainsi que la limite du nombre et de la taille des documents que les ministères et les organismes peuvent télécharger sur le portail du CRG.

ANNEXE G  BIBLIOGRAPHIE

Les ouvrages de référence qui suivent ont été utilisés dans le cadre du projet ainsi que dans la préparation du présent rapport.

Audit Commission. « Comprehensive Performance Assessment »

Australian Public Service Commission. « Senior Executive Leadership Capability (SELC) Framework »

CCAF-FCVI. « Les fondements institutionnels favorisant la budgétisation éclairée par la performance. Le cas du gouvernement du Canada », la revue de l'OCDE sur la gestion budgétaire, 2007, vol. 7, no 4.

Chartered Institute of Public Finance and Accountancy. The CIPFA FM Model: Statements of Good Practice in Public Financial Management - Getting Started ( version PDF, 419ko Anglais seulement).

Collins, Jim. Good to Great. New York: HarperCollins, 2001.

Conrad, M. « Some Mandarins Merely Going through the Motions of DCRs », Public Finance, 16 novembre 2007.

Cresswell A.M., D. Canestraro, et T.A. Pardo. « A Multi-Dimensional Approach to Digital Government Capability Assessment », Center for Technology in Government, University of Albany, SUNY, 2008.

Falletta, S. Organizational Diagnostic Models: A Review and Synthesis, Leadersphere, 2005.

Halligan, J. « Accountability in Australia: Control, Paradox and Complexity », Public Administration Quarterly, hiver 2007.

Harris, L. « Best Value Reviews of Human Resource Services in English Local Government », Review of Public Personnel Administration, 24(4), 334-347, 2004.

HM Government. Doing the Business: Managing Performance in the Public Sector - An External Perspective, février 2008.

HM Treasury. « HMT DSO Delivery Plan: Professionalising and Modernising the Finance Functions in Government », juillet 2008.

HM Treasury. Operational Efficiency Programme: Final Report, avril 2009.

HM Treasury. « Management Accountability Framework », présentation non datée.

HM Treasury. « Risk Management in UK Government », présentation non datée.

Holkeri, K. et H. Summa. « Evaluation of Public Management Reforms in Finland: From Ad Hoc Studies to Programmatic Approach », ministère des Finances, Finlande.

Interdepartmental MAF Network. « 2009 TBS Evaluation of the Management Accountability Framework: RFP MAF Administration », 2009.

Interdepartmental MAF Network. « 2009 TBS Evaluation of the Management Accountability Framework: Potential Points to Consider », 2009.

Kaplan, Robert S. et David P. Norton. The Balanced Scorecard: Translating Strategy into Action, Harvard Business Press, 1996.

McNamara, Carter. « Organizational Performance Management », Authenticity Consulting, 2008.

National Audit Office. Cabinet Office: Assessment of the Capability Review Programme, Report by the Comptroller and Auditor General, HC 123 Session 2008-2009, 5 février 2009.

National Audit Office. The Efficiency Programme: A Second Review of Progress, Report by the Comptroller and Auditor General, HC 156 I & II 2006-2007, 8 février 2007.

National Audit Office. Managing Financial Resources to Deliver Better Public Services, Report by the Comptroller and Auditor General, HC 240 Session 2007-2008, 20 février 2008.

National Audit Office. Managing Financial Resources to Deliver Better Public Services: Survey Results, 2008.

National Audit Office. Value for Money in Public Sector Corporate Services: A Joint Project by the UK Public Sector Audit Agencies, 2007.

Bureau du vérificateur général du Canada. Rapport de la vérificatrice générale du Canada à la Chambre des communes - Chapitre 2 - La reddition de comptes et l'éthique au gouvernement, novembre 2003.

Oliveira, Fatima et Josiane Desilets. « Interdepartmental MAF Network: MAF Round VI Solution Sheet », document provisoire, 26 janvier 2009.

Platt, Rodney K. « Performance Management », Worldat Work White Paper, décembre 2003.

Poage, James L. « Designing Performance Measures for Knowledge Organizations », Ivey Business Journal, mars/avril 2002.

Public Audit Forum. Finance Value for Money Indicators Guidance, mai 2007.

Public Policy Forum. A Management Accountability Framework for the Federal Public Service: Outcomes Report of Roundtable with Public Administration Experts and Academics, Public Policy Forum Boardroom, Ottawa (Ontario), 16 mai 2003.

Reid, Joanne et Victoria Hubbell. « Creating a Performance Culture », Ivey Business Journal, mars/avril 2005.

Sims, Harvey. « The Management Accountability Framework - Genesis, Evolution, Current Uses, and Future Prospects: A Paper Prepared for the MAF Directorate », Sussex Circle, 15 juillet 2008.

Sims, Harvey. « The Management Accountability Framework: A Paper Prepared for the MAF Directorate », Sussex Circle, 16 juillet 2008.

Staes, P. « Study on the Use of the Common Assessment Framework in European Public Administration », Institut européen d'administration publique, 2005.

Staes, P. et N. Thijs. « Quality Management on the European Agenda », EIPAScope, 2005.

State Services Commission, New Zealand. « The Capability Toolkit: A Tool to Promote and Inform Capability Management », 2008.

State Services Commission, New Zealand. « Quality Management in Government Responsibility and Accountability: Standards Expected of Chief Public Service Officers »

Sussex Circle. « MAF Round VI Questions », 2009.

Sussex Circle. « Management Accountability Framework Limited Review: A Paper Prepared for the MAF Directorate », 13 juin 2007.

Sussex Circle. « Report on Interviews with Deputy Ministers Concerning Management Accountability Framework Round V », 30 juin 2008.

Secrétariat du Conseil du Trésor du Canada. « Guide concernant les évaluations du CRG, 2007-2008 », Direction du Cadre de responsabilisation de gestion, 2008.

Secrétariat du Conseil du Trésor du Canada. Cahier sur les pratiques de gestion de premier plan. Hampton Inn, Ottawa, 3 octobre 2008.

Secrétariat du Conseil du Trésor du Canada. « Exercice rétrospectif du CRG : interne », 5 juin 2008.

Secrétariat du Conseil du Trésor du Canada. « Le processus du CRG », séance de formation interne à l'intention des ministères et des organismes, 22 et 26 septembre 2008.

Secrétariat du Conseil du Trésor du Canada. « Ébauches des cotes de la ronde VI du CRG : Tendances et questions »,  Forum de la stratégie du Cadre de responsabilisation de gestion, 30 janvier 2009.

Secrétariat du Conseil du Trésor du Canada. « Ronde VI du CRG, septembre 2008 : Exposés, description des cotes, document de référence sur la méthodologie et documents additionnels », Direction du Cadre de responsabilisation de gestion.

Secrétariat du Conseil du Trésor du Canada. « Formation des gestionnaires et des analystes du PCT sur le CRG », octobre 2008.

Secrétariat du Conseil du Trésor du Canada. « Document de référence - Méthode d'évaluation des composantes de la gestion pour la ronde VI du CGR pour 2008‑2009 », Direction du Cadre de responsabilisation de gestion.

Secrétariat du Conseil du Trésor du Canada. « Exercice rétrospectif du CRG : Externe » 30 mai 2008.

Secrétariat du Conseil du Trésor du Canada. « Cadre de responsabilisation de gestion : Constatations de la ronde V », juin 2008.

Secrétariat du Conseil du Trésor du Canada. « Survol du Cadre de responsabilisation de gestion  » PricewaterhouseCoopers, décembre 2008 - mars 2009.

Secrétariat du Conseil du Trésor du Canada.«La gestion des personnes et le CRG VII : une nouvelle approche; Breffage au Secteur des priorités et de la planification », Présentation 26 février 2009.

Secrétariat du Conseil du Trésor du Canada. « Enjeux liés au process », réunion du CPS élargi, 3 juillet 2008.

Secrétariat du Conseil du Trésor du Canada. « Changements proposes à la méthodologie du CRG 2008-2009 », présenté à la réunion du CPS élargi du 3 juillet 2008.

Secrétariat du Conseil du Trésor du Canada. « Réponse à la rétroaction et aux récapitulations du CRG », réunion du CPS élargi du 3 juillet 2008.

Secrétariat du Conseil du Trésor du Canada. « Application du CRG du SCT - Ronde VI : Sessions internes de formation », octobre 2008.

Secrétariat du Conseil du Trésor du Canada. « Le portail du CRG du SCT », séance de formation interne à l'intention des ministères et des organismes, 22 et 26 septembre 2008.

The Treasury, New Zealand. Annual Report of the Treasury for the Year Ended 30 June 2008, 2008.

United States Government Accountability Office. « President's Management Agenda: Review of OMB's Improved Financial Performance Scorecard Process. » Report to the Subcommittee on Government Management, Finance, and Accountability, Committee on Government Reform, House of Representatives, 2006.


1. Demande de proposition concernant l'évaluation quinquennale indépendante du Cadre de responsabilisation de gestion.

2. Une liste complète des personnes interviewées et des participants aux consultations se trouve à l'annexe C.

3. Le Réseau du CRG et le RAPO sont des réseaux constitués de représentants ministériels de divers échelons qui visent à partager des pratiques exemplaires.

4. « Why is Performance Management so difficult to implement? », Canadian Government Executive, mars 2009.

5. Par exemple, des études menées par le National Institute of Standards and Technology à la fin des années 1990 ont indiqué que les récipiendaires du Malcolm Balbridge National Quality Awards performent mieux que les autres sociétés sur le plan du rendement financier total.

6. Performance Management White Paper, Rodney K. Platt : WorldatWork, décembre 2003.

7. Le Programme de gestion du Président (President's Management Agenda - PMA) était une initiative de l'administration Bush. L'administration Obama a reconnu la nécessité de la création d'un poste d'agent principal du rendement, mais le rôle du PMA au sein de la nouvelle administration n'a pas encore été établi clairement.

8. Organisation de coopération et de développement économiques (OCDE). Public Sector Intergity: A Framework for Assessment, p. 86.

9. Assessment of the Capability Review Programme, Report by the Comptroller and Auditor General, National Audit Office, février 2009.

10. CAF 2006. CAF Resource Centre. Institut européen d'administration publique

11. Parmi les exceptions, mentionnons la République tchèque, la Slovaquie et la Roumanie qui ont rendu l'utilisation du CAF obligatoire en vue de favoriser les pratiques de gestion de qualité dans le secteur public.

12. Par exemple, la Loi fédérale sur la responsabilité adoptée en décembre 2006 renferme des dispositions de renforcement de la responsabilisation dans l'administration fédérale, y compris la désignation des sous‑ministres à titre d'administrateurs des comptes.

13. Operational Efficiency Programme: Final Report, HM Treasury, avril 2009.

14. Présentation du SCT - « Ébauches des cotes de la ronde VI du CRG : Tendances et questions », 30 janvier 2009.

15. Présentation du SCT -  « La gestion des personnes et le CRG VII : une nouvelle approche; Breffage au Secteur des priorités et de la planification », 26 février 2009.

16. La Direction du CRG du Secrétariat du Conseil du Trésor a préparé la présente annexe après avoir rempli l'évaluation; l'annexe est incluse dans le rapport à titre d'information.



Date de modification :