L’acceptation d’une méthode d’analyse des risques dans le secteur public local



L’acceptation d’une méthode d’analyse des risques dans le secteur public local
Etude des conditions organisationnelles et institutionnelles dans le cas d’une communauté urbaine

Introduction

A la suite des difficultés financières que rencontrèrent plusieurs communes françaises à la fin des années 1980, dont l’exemple de la ville d’Angoulême reste le plus marquant, et afin de répondre aux critiques adressées au système comptable alors en vigueur, plusieurs réformes furent engagées. La principale fut la mise en place de l’instruction budgétaire et comptable M14, instaurée par la loi n°94-504 du 22 juin 1994, et entrée en vigueur le 1er janvier 1997. Son objectif principal était de rapprocher les pratiques comptables du secteur public de celles du secteur privé, notamment en passant d’un système de comptabilité de caisse modifiée à un système d’engagement patrimonial (Lande, 2003). Néanmoins, la mise en pratique de cette instruction s’est révélée lacunaire (Saïdj, 2004 ; Lande, 2003 ; Wathelet, 2000 ; Demeestère, 1999), notamment sur le plan de la prise en compte des risques, liée à l’imbrication des systèmes comptable et budgétaire, mais également face à l’absence d’une vision globale de la sphère locale, de par l’absence d’informations consolidées (Lande, 2003).
Pour faire face à ces deux limites, depuis juin 2004, la Direction Générale de la Comptabilité Publique (DGCP) propose aux collectivités locales une méthode d’analyse des risques périphériques. L’objectif est de cerner les risques engendrés par les satellites et partenaires des collectivités locales, susceptibles de se répercuter sur la situation financière de ces dernières, et d’impacter significativement leurs marges de manœuvres. Aujourd’hui, cette méthode est mise en place dans plusieurs collectivités locales françaises, qu’ils s’agissent de départements, de communes, ou d’Etablissements Publics de Coopération Intercommunale (EPCI).
Plusieurs arguments militent pour la mise en place de telles méthodes dans les EPCI. Si la logique de regroupement de communes a souvent été empruntée par le passé, les lois du 6 février 1992 et du 12 juillet 1999 lui ont donné un second souffle et une nouvelle orientation, au point d’atteindre une couverture quasi-totale du territoire national. La contrepartie de ce développement géographique s’est traduit par la multiplication des compétences qui leur sont dévolues. Toutefois, si la grande majorité des groupements présentent actuellement une bonne situation financière, à court terme, plusieurs facteurs sont susceptibles de remettre en cause leur équilibre financier. Ainsi, suivant le rapport de la Cour des Comptes sur l’intercommunalité en France, publié en novembre 2005, la réforme de la taxe professionnelle, la croissance certaine des dépenses liées à l’assainissement, le logement, les déchets, et la sous-estimation des charges transférées sont autant de facteurs susceptibles de grever les marges financières des EPCI. De plus, les ressources financières mobilisables par ces derniers ne croissent pas aussi vite que les dépenses ; un « effet de ciseaux » est donc à craindre, à l’instar de la situation qu’ont connu certaines communes dans les années 1980 et 1990.
Dès lors, une maîtrise des dépenses est nécessaire. Face à ce constat, l’acceptation d’outils de gestion semble inéluctable pour pallier les lacunes de l’information existante. Parmi les pistes envisageables, l’évaluation des risques périphériques permettrait de mieux suivre l’évolution des projets engagés ainsi que leurs incidences sur les marges de manœuvre des collectivités locales concernées.
Il parait donc intéressant, dans le cas des EPCI, de s’interroger sur les tenants de l’acceptation et de la mise en place de la méthode d’analyse des risques proposée par la DGCP. La nécessité d’un tel outil de gestion est-elle prépondérante dans le choix des élus ? Existe-t-il d’autres raisons ? Comme l’indique J.G. March (1991, p. 237), si l’approche classique de la théorie de la décision prône un lien direct entre collecte d’informations et prise de décisions, « dans la réalité, le comportement des organisations ne correspond pas très bien à cette vision. Il semble que les informations soient collectées et traitées sans considération particulière de pertinence pour des décisions précises ». Ce constat se retrouve dans les recherches portant sur le secteur public (Carpenter et Feroz, 1992 ; Ansari et Euske, 1987), qui montrent d’une part, le faible rôle de l’information financière en tant qu’outil d’aide à la décision, et d’autre part, l’importance des pressions que subit l’organisation et la prépondérance des intérêts des acteurs impliqués.
Ansari et Euske (1987, p. 551) listent les principaux rôles assignés à l’information comptable au regard de la littérature existante : l’aide à la décision ; la motivation des individus ; l’influence et le contrôle ; l’accroissement de la confiance dans des décisions prises dans des environnements incertains ; la légitimation de l’organisation ; et enfin, le fait de servir et favoriser des intérêts personnels au sein de l’organisation. Comme ils le soulignent, une telle diversité et l’absence d’une vision unifiée nécessitent de combiner plusieurs approches afin de proposer un cadre interprétatif plus riche. Ansari et Euske (1987, p. 553) proposent donc trois alternatives théoriques pour appréhender l’utilisation de l’information comptable dans les organisations :
      une approche classique de la décision, autour du rôle d’aide à la décision ;
      une approche « sociopolitique », face aux conflits d’intérêts sous-jacents à l’utilisation de l’information dans les organisations ;
      une approche institutionnelle face aux attentes de l’environnement.
La combinaison de plusieurs angles théoriques pour comprendre les choix comptables s’insère dans la continuité des travaux existants (Carpenter et Feroz, 1990, 1992 ; Covaleski et Dirsmith, 1986 ; Touron, 2004).
Comme le soulignent Carpenter et Feroz (1992, p. 615) concernant l’acceptation des principes comptables américains par l’Etat de New York, « les intérêts personnels et le pouvoir sont des facteurs d’influence importants, que les pressions institutionnelles favorisant le changement jouent un rôle ou non dans l’acceptation. Dès lors, il est donc important d’analyser les intérêts des acteurs et les relations de pouvoirs à un niveau inter organisationnel, mais également intra organisationnel ». Cette étude s’attachera donc à mettre en évidence les raisons inter et intra organisationnelles de l’acceptation d’une méthode d’analyse des risques dans les EPCI, tout d’abord, grâce à une approche organisationnelle, centrée sur le rôle d’aide à la décision ainsi que sur l’existence de conflits d’intérêts (1), puis à l’aide d’une approche institutionnelle, en mettant en évidence les pressions institutionnelles qui ont conduit à l’acceptation de la méthode (2). Pour ce faire, une approche interprétative sera adoptée (Ansari et Euske, 1987 ; Hopper et Powell, 1985).

Architecture de la recherche : terrain d’étude et recueil des données

Cette recherche porte plus particulièrement sur l’étude d’une communauté urbaine. Ce type de groupement à fiscalité propre a été institué par la loi n°66-1069 du 31 décembre 1966. L’antériorité de ces structures intercommunales dans le secteur public local, « qui se définissent volontiers comme la forme la plus achevée de l’intercommunalité » (Bernard-Gélabert, 2003, p. 47), justifie des problématiques orientées sur leur gestion plutôt que sur leur reconnaissance, les premières communautés urbaines ayant été instituées de manière autoritaire en 1966. De plus, l’étude porte sur le premier EPCI à avoir accepté la méthode proposée par la DGCP, qui est également la première collectivité, tous types confondus, à l’avoir mise en place.
Enfin, le choix d’une étude de cas (Yin, 1984) s’insère dans la continuité des travaux sur la mise en place de procédures ou d’outils comptables (Kaplan, 1983 ; Carpenter et Feroz, 1990, 1992, 2001 ; Touron, 2004).

Le recueil des données a été effectué en plusieurs étapes. Tout d’abord, par observation participante (Arborio et Fournier, 2003) lors de deux phases distinctes :
      la première, d’une durée d’un an (de février 2004 à décembre 2004), lors de la création de l’outil, grâce à la participation au groupe de travail constitué par la DGCP dans cet optique, groupe de travail auquel participait des administratifs de la collectivité étudiée, ainsi que grâce à la participation aux premières présentations de la méthode auprès de différentes collectivités ;
      la seconde, pendant un an (de novembre 2004 à novembre 2005), en tant que membre du groupe de travail en charge de la mise en place de la méthode au sein de la communauté urbaine étudiée.
Ce procédé de collecte d’informations a permis de rencontrer les parties prenantes à l’acceptation et à la mise en place de la méthode.
Une deuxième étape de recueil d’informations consista en entretiens afin, lorsque cela fut possible, de valider les conclusions issues des observations faites. Ces entretiens furent le plus souvent libres, peu structurés, de par le public interrogé, et également de par la position d’observateur participant qui a plutôt favorisé des discussions informelles. Au total, dix entretiens ont été menés auprès :
      de quatre membres des services administratifs de la communauté urbaine étudiée, issus des services financiers et des services de contrôle de gestion ;
      de trois membres du réseau du Trésor, respectivement chef du projet, responsable de la signature des conventions de services comptables et financiers (CSCF), et enfin une personne en charge du soutien de la collectivité lors de la mise en place de la méthode ;
      de trois élus, membres de la commission des finances ou de la commission de suivi des satellites.
Enfin, en marge des observations et des entretiens, un recueil d’informations complémentaires fut réalisé en consultant les dossiers de presse, discours, et documents internes se rattachant à ce sujet. Le recours à des données secondaires a permis d’étayer les propos des interviewés, principalement des élus, avec lesquels les entretiens et discussions ont été les plus courts.

1.    Le rôle de l’information comptable : une approche organisationnelle

Dépassant l’approche classique de la théorie de la décision, de nombreux travaux attribuent à l’information des rôles détournés de l’aide à la décision (1). A partir de cette vision élargie du rôle de l’information comptable, il est intéressant de prendre en compte l’influence des intérêts des acteurs dans l’acceptation d’une méthode d’analyse des risques dans un EPCI (2).

1.1.       De l’aide à la décision aux conflits d’intérêts

Comme le souligne March (1991, p. 232), « les systèmes d’information, tels que la comptabilité, sont considérés comme une partie du système d’aide à la décision pour les cadres, les analystes financiers, les actionnaires et tous ceux qui ont des intérêts dans l’organisation. […] Dans cette optique, la principale incertitude de la prise de décision est l’ignorance des conséquences futures des actions possibles, y compris l’ignorance des informations détenues par les autres et de leurs actions probables ; et la principale raison d’être de l’information est son rôle dans la diminution de cette incertitude ». Une telle approche se retrouve dans la définition de l’information financière comme instrument de gestion, c'est-à-dire « un ensemble de dispositifs organisationnels construit pour élaborer des informations fiables et pertinentes destinés à aider la prise de décision » (Grenier, Bonnebouche, 2000, p. 21). Cependant, dans la réalité, le comportement des organisations ne correspond pas à cette vision (March, 1991 ; March et Olsen, 1986 ; Feldman et March, 1991).
Hopwood (1990) propose une typologie du rôle de l’information comptable dans une organisation, suivant deux dimensions : le degré d’incertitude du dirigeant concernant les conséquences de l’action organisationnelle, et le degré d’incertitude des objectifs attachés à l’action (tableau 1).


Incertitude quant aux objectifs de l’action


Relative certitude
Relative incertitude
Incertitude liée aux conséquences de l’action
Relative certitude
Aide à la décision
(Answer machines)
Arguments
(Ammunition machines)
Relative incertitude
Outil d’apprentissage
(Learning machines)
Outil de justification
(Rationalisation machines)
Tableau 1 : Incertitude, prise de décision et rôle des systèmes d’information et de contrôle, tiré de A.G. Hopwood, 1990, p. 227.

Dans le cas d’une relative certitude quant aux objectifs attachés à une décision ainsi qu’à ses conséquences attendues, l’information financière joue le rôle d’aide à la décision (Answer machines), « en proposant un moyen de comparer les objectifs et les résultats » (Hopwood, 1990, p. 227). Dès lors, lorsque l’objectif est connu mais les conséquences assez floues, l’information se transforme en un outil d’apprentissage (Learning machines). Lorsque les objectifs sont incertains et les décisions heurtées, caractérisées par des débats et des négociations, l’information financière peut se transformer en « munitions » (Ammunition machines), c’est à dire en arguments supplémentaires afin de favoriser une position ou des intérêts particuliers. Enfin, dans le cas d’une incertitude forte, tant sur les objectifs que concernant les conséquences espérées, l’information peut se révéler être un moyen de justification et de légitimation a posteriori des décisions (Rationalisation machines).
Les « conflits d’intérêts » conduisent à appréhender la comptabilité et ses normes comme « le théâtre de luttes de pouvoir » (March, 1991, p. 233). Dans cette logique et concernant le secteur public local, Demeestère (1980, p. 89) met en avant certaines forces pesant dans la décision, parfois aux dépens de la logique financière à court terme, « qui conduisent à mettre en avant la négociation, réelle ou tacite, comme schéma directeur de la décision, plus que d’un schéma rationnel du type : fixation des objectifs, étude des alternatives, choix de la meilleure solution, suivi de la réalisation par rapport aux objectifs, correction en cas d’écart » :
-          la multiplicité des acteurs concernés par une décision ;
-          les jeux d’acteurs face à l’information ;
-          la visibilité des conséquences de tel ou tel projet pour les électeurs, « qui incite à aller jusqu’au bout « quand un coup est parti », quitte à en masquer les conséquences négatives, plutôt que d’avouer l’échec et de risquer d’encourir le reproche de gaspillage en s’arrêtant en cours de route ».
Les EPCI offrent une bonne illustration de ce phénomène. Les dirigeants de ces structures ne sont pas élus au suffrage universel, mais suivant un vote dit « de second degré », parmi les membres des conseillers municipaux des communes participantes. De là, découle une mixité politique au sein des instances dirigeantes, et le plus souvent, la recherche d’un consensus politique. En effet, pour certains projets, il peut apparaître une logique municipale individualiste, chaque élu cherchant alors à maximiser les retours de la coopération intercommunale pour sa commune au détriment de l’intérêt intercommunal.
Les explications des motivations à la collecte d’informations proposées par Feldman et March (1991) semblent pertinentes dans le secteur public local, et plus particulièrement concernant les EPCI. S’appuyant sur de nombreuses recherches étudiant le lien entre prise de décision et recherche d’informations dans les organisations, ces auteurs proposent plusieurs explications, dont l’incitation à l’information, et l’information et la désinformation stratégiques :
      « On demande souvent aux décideurs individuels et aux organisations de rendre compte a posteriori de leurs décisions » (Feldman et March, 1991, p. 261).
Le secteur public local se prête fort bien à cet argument, ou l’élu est confronté à l’échéance politique, dans un contexte actuel marqué par la recherche de la transparence et de la participation du citoyen à la décision communale ou intercommunale. Cela est d’autant plus vrai dans les EPCI, où d’une part, se pose la question de la place du citoyen dans le débat démocratique (Kerrouche, 2003), et d’autre part, où les décisions intercommunales se doivent en théorie de respecter l’intérêt communautaire.
De plus, face à la logique croissante de responsabilisation de l’élu, qui se traduit notamment par la multiplication des risques juridiques, ce dernier a intérêt à posséder un surplus d’informations dans un objectif préventif, comme autant d’arguments qu’il pourra mobiliser le cas échéant.
      « Une information est souvent délivrée dans le but de persuader quelqu’un de faire quelque chose » (Feldman et March, 1991, p. 263).
Là encore, cela s’applique aux EPCI, face à la recherche du consensus politique, tant entre élus de différents courants politiques, que dans la relation entre élus et citoyens. Il faut également prendre en compte la relation entre les administratifs et les élus. En effet, la position dans l’organisation et les connaissances des administratifs leur offrent la possibilité de « manipuler » l’information qu’ils donneront aux élus. De là, on retrouve le troisième argument de Feldman et March (1991, p. 261) :
      « Les décisions concernant l’information sont souvent prises dans les parties de l’organisation qui peuvent en transférer le coût ».
Ce phénomène se retrouve dans les collectivités locales, face à la frontière qui existe entre les élus, utilisateurs visés des informations, et les administratifs, qui se voient déléguer la responsabilité de leur mise en œuvre, voire de leur développement.

La compréhension de l’acceptation d’une méthode d’analyse des risques par une communauté urbaine sera plus particulièrement axée sur ces trois assertions, combinant incitation à l’information, information et désinformation stratégiques. Une première tentative d’analyse du processus d’acceptation mettra donc en lumière les intérêts intra organisationnels attachés à sa mise en place.

1.2.       L’acceptation d’une méthode d’analyse des risques dans une communauté urbaine

Trois raisons principales ont été mobilisées par les différentes parties prenantes internes pour justifier l’acceptation de la méthode : l’aide à la décision ; l’incitation à l’information ; l’information stratégique.
Le développement d’une méthode d’analyse des risques a tout d’abord donné lieu au recensement des besoins et attentes des élus par le biais d’une enquête électronique menée conjointement par la DGCP et l’Association des Maires de France. Ce travail préliminaire a permis de mettre en évidence un besoin important des élus en matière d’information consolidée ainsi que d’informations sur les risques.
Le premier contact avec les élus de la collectivité étudiée a confirmé ce résultat, le président de la communauté urbaine concernée, dans l’un de ses discours, et également selon les propos des élus interrogés, ayant rappelé l’intérêt de tels outils pour la gestion.
De plus, à la suite de la mise en place de l’outil, l’aspect novateur de la méthode, et surtout le rôle de pionnier de la communauté en ce domaine, toutes collectivités confondues, a été clairement apprécié et mis en avant par les élus.
Malgré l’affirmation d’un besoin de gestion par les élus, la mise en place d’une telle information relève aussi d’intérêts politiques : « on demande souvent aux décideurs individuels et aux organisations de rendre compte a posteriori de leurs décisions ». Dans le cas étudié, si les élus interrogés ont éludé ce point, les administratifs ont pourtant confirmé cette tendance, l’un d’eux s’exprimant en ces termes : « l’acceptation des outils est aussi un moyen pour les élus de ne pas être attaqués sur leur gestion. En mettant en place des outils novateurs, pour le suivi des relations avec les SEML, ou concernant l’analyse des risques, ils ne veulent pas pouvoir être critiqués à la fin de leur mandat ». Dans un contexte politique difficile, marqué par des tensions et une faible marge de manœuvre de la majorité, face à la menace de l’opposition lors des prochaines échéances électorales, l’analyse des risques permet « d’afficher » un intérêt de gestion marqué.
Par ailleurs, concernant la relation entre élus et administratifs, lors du développement de la méthode, si ce sont les élus qui ont été invités à participer au groupe de travail, ce sont les administratifs qui les représentèrent. De même, l’intervention des élus lors de la mise en place de la méthode dans la collectivité était autant conduite par le suivi de l’avancée des travaux, que par « l’acceptabilité politique » du sujet abordé.
Cela conforte l’assertion selon laquelle « les décisions concernant l’information sont souvent prises dans les parties de l’organisation qui peuvent en transférer le coût à d’autres, tout en conservant les bénéfices ». En effet, tel fut le cas lors du développement et de la mise en place du guide d’analyse et de regroupement des risques, où l’élu intervient :
      en tout début de processus, via le recueil de ses besoins, fondement et garanties nécessaires au développement de cette méthode, au-delà de la simple identification des limites existantes en matière d’information financière ;
      puis lors de l’acceptation de la mise en place de la méthode dans la collectivité, où il se porte garant de l’utilité de l’information ;
      et enfin, à la fin de la mise en place, les résultats lui étant présentés.
Les administratifs ont été les vrais « incitateurs » de la mise en place de cette méthode au sein de la collectivité étudiée.
En accord avec le mécanisme d’incitation relevé supra, concernant la séparation entre l’utilisateur et le « développeur » de l’information dans les collectivités locales, l’information délivrée par l’administratif à l’élu peut être empreinte d’un « message subliminal ». L’observation du processus de mise en place du guide de regroupement et d’analyse des risques, et plus particulièrement des motivations des administratifs à participer à ce projet, a permis de mettre en évidence ce phénomène. Les entretiens menés par la suite confirmèrent cet état de fait.
Le groupe de travail était constitué par cinq membres du réseau du Trésor et de la Direction Générale de la Comptabilité Publique, et de cinq membres des services administratifs de la collectivité. Parmi ces derniers, deux appartenaient au service de contrôle de gestion, dont le chef du service, et trois au service des finances, dont le chef du service et un administratif en charge du suivi et des relations de la collectivité avec les SEML.
Aucun membre de services de contrôle de gestion n’a participé au groupe de travail sur l’élaboration de la méthode. Ceci s’explique, selon le chef du projet du guide des risques, par le fait que les interlocuteurs privilégiés du réseau du Trésor sont, outre les élus, les services en charge du budget et de la comptabilité, et d’autre part, par le fait que peu de collectivités locales sont aujourd’hui dotées d’un réel service de contrôle de gestion autonome et efficace. Néanmoins, le chef du service de contrôle de gestion de la communauté étudié a insisté pour devenir le co-responsable du groupe de travail visant à la mise en place de la méthode dans la communauté urbaine. Interrogé sur ce sujet, il a affirmé trouver dans cette méthode un moyen d’une part, de valoriser le rôle de son service, et d’autre part, de préserver les intérêts et les missions de son service face à la volonté marquée, depuis plusieurs années, des services financiers de « récupérer » l’analyse des risques des satellites. C’est avec une « approche défensive » qu’il a abordé le groupe de travail. Ceci s’est traduit par une totale maîtrise de l’information divulguée pendant les réunions du groupe de travail, et avec la défense du postulat suivant : « puisqu’on contrôle ce satellite, il n’y a pas de risques », qui a conduit à d’âpres discussions concernant les critères d’évaluation à retenir (afin de se rapprocher le plus souvent d’une analyse financière déjà réalisée par les services de contrôle de gestion).
Le chef du service financier a confirmé l’existence « d’un conflit interne » entre services financiers et services de contrôle de gestion sur le thème du suivi des satellites. Le dynamise dont il a fait preuve tout au long de la mise en place du guide, dont il a été un rouage essentiel, contraste avec ses propos, puisqu’il a reconnu qu’aucun besoin n’avait été exprimé en matière d’approche prospective par les élus de la communauté, tout au plus avait-il déceler une attente de leur part, à la suite de l’acceptation du guide. Cela a été confirmé lors de la réunion de présentation des résultats ou le TPG et l’élu en charge de la commission des finances se sont surtout félicités de la qualité du partenariat entre les services du Trésor et les services de la collectivité.
L’administratif en charge du suivi des SEML a joué un rôle qui s’est accru au fil des réunions : d’une position quasi superficielle, comme en atteste le peu d’engouement apporté lors des premières réunions pour remplir les documents relatifs aux SEML, il est passé à une position visible, qui s’est traduit par un accès important à l’information. Ceci est d’autant plus important dans le cas des SEML, pour lesquelles les informations transmises à la collectivité sont souvent difficiles, nombreuses, et diffuses. Ce revirement a coïncidé avec l’opportunité offerte par la mise en place du guide des risques et son suivi par les élus, de valoriser un projet interne visant au développement d’une méthode annexe concernant l’amélioration du suivi des relations entre une collectivité et les SEML d’aménagement avec lesquelles elle est en relation.
Le caractère stratégique du guide s’est aussi retrouvé dans le choix des entités à étudier. Certaines, connues pour être sensibles politiquement, ont été abandonnées en connaissance de cause. Par exemple, une SEML portant un projet immobilier pour la ville centre et connaissant d’importants dérapages financiers n’a volontairement pas été analysée, de manière à ne pas attiser les discussions politiques et raviver le débat autour d’une opération bénéficiant à une seule ville et financée par l’ensemble des communes membres.
Ce choix a aussi été motivé par l’intérêt de la DGCP de mettre en place la méthode le plus rapidement possible afin de disposer d’une première mise en place réussie. Aujourd’hui, celle-ci est présentée comme un exemple, telle une preuve de la faisabilité de la tâche. L’objectif est ainsi « de jouer sur la concurrence » entre collectivités.

Trois arguments majeurs en faveur de l’instauration d’une telle méthode furent donc avancés par les administratifs :
      Le rôle pédagogique de la méthode : tous les élus ne sont pas sensibles aux aspects financiers et gestionnaires des satellites et partenaires dans lesquels ils représentent la collectivité. Dès lors, dans des cas où l’information proposée aux collectivités est assez pauvre, ou au contraire foisonnante mais incomplète, l’élu parait être la personne l’a mieux placée pour « glaner » quelques informations supplémentaires.
      Un moyen de mettre en avant un outil de suivi des SEML, créé en parallèle par les services de la communauté : en effet, au travers de la mise en place du guide des risques, une opportunité est apparue pour certains participants à la mise en place, de valoriser un outil créé en parallèle.
      Un moyen de valoriser le travail des services : plusieurs administratifs ont effectivement évoqué l’opportunité, au travers de cet outil, de mettre en évidence des résultats, mais également des méthodes de travail existantes au sein même de la collectivité. Dans le cas étudié, cela fut particulièrement vrai pour les services de contrôle de gestion. Bien que les membres participants se soient défendus de chercher une quelconque légitimité au travers de cet outil, puisque la création du pôle contrôle de gestion découle d’une volonté politique marquée, la place qui leur est dévolue reste assez paradoxale : malgré cet aspect politique, les résultats ne sont pas toujours valorisés.

Plusieurs raisons internes à la communauté se combinent pour expliquer l’application de la méthode d’analyse des risques proposée. Si les élus y voient un intérêt fort en termes d’image et de « standing de la communauté » sur le plan national, les administratifs y ont également trouvé un outil susceptible d’influencer le comportement des élus.

2.    L’acceptation d’un nouvel outil comptable : une approche institutionnelle

Les organisations sont soumises à des pressions de leur environnement qui les incitent à se conformer à ses normes et valeurs (1). Dès lors, une seconde explication de l’acceptation d’une méthode d’analyse des risques par une communauté urbaine met en lumière les principales pressions institutionnelles existantes (2).

2.1.       L’information comptable : une source de légitimité institutionnelle

Il est difficile de ne pas tenir compte de l’environnement et des pressions existantes lors de l’acceptation de nouvelles pratiques comptables. Comme le soulignent Carpenter et Feroz (1992, p. 615), se référant à une étude précédente relative à l’acceptation des GAAP par l’Etat du Kentucky (Carpenter et Feroz, 1990), « l’analyse d’un tel choix ne peut être fait hors du contexte social et politique dans lequel les décisions ont été prises. La place dans l’agenda législatif, la question de l’intérêt d’acteurs influents, et finalement l’acceptation ou le rejet dépendent des conditions politiques, sociales, et économiques existantes ».
Prendre en compte les interactions entre l’environnement et l’organisation face à la mise en place de nouvelles procédures ou méthodes comptables revient à s’interroger sur le rôle attaché et attendu de l’information.
Ansari et Euske (1987, p. 553) proposent une classification du rôle de l’information comptable, élargissant la typologie établie par Hopwood (1990) quant au rôle de l’information selon les acteurs externes (tableau 2).

Utilisateurs concernés
Orientation de l’information
Interne
Externe
Aide à la décision
Mesure de l’efficience
Accès aux ressources
Influence
Influence des comportements
Légitimité
Tableau 2 : Les rôles de la comptabilité dans les organisations, tiré de Ansari et Euske, 1987, p. 553.

Une organisation est dite légitime lorsque ses objectifs et les moyens pour les atteindre sont conformes aux normes, attentes, et valeurs sociales (Dowling et Pfeffer, 1975). Les informations comptables peuvent constituer des sources de légitimité auxquelles les organisations peuvent faire appel pour justifier leurs actions (Laufer et Burlaud, 1997). Comme l’indiquent Feldman et March (1991, p. 270) : « l’utilisation de l’information symbolise l’attachement au choix rationnel. Afficher ce symbole réaffirme l’importance de cette valeur sociale et signale la compétence de la personne ou de l’organisation concernée ».
Dans une optique externe et une logique d’aide à la décision, l’information comptable peut être un moyen pour l’organisation et ses dirigeants de témoigner de bonnes pratiques, par la diffusion d’informations, dans un objectif d’accès aux ressources (Skinner, 1994 ; Pourtier, 2004). Par ailleurs, l’acceptation et l’utilisation d’informations comptables peuvent également apparaître comme un moyen de légitimer l’organisation face aux attentes et pressions de son environnement (Carpenter et Feroz, 1992 ; Covaleski et Dirsmith, 1988).
Ce dernier rôle joué par l’information comptable rejoint l’approche néo-institutionnelle, dont l’une des prémisses repose sur le fait que les organisations répondent aux pressions de leur environnement institutionnel en adoptant des structures ou des procédures qui sont socialement acceptées comme étant la réponse organisationnelle appropriée (Carpenter et Feroz, 2001, p. 569). DiMaggio et Powell (1983) font référence au concept d’isomorphisme institutionnel en référence à la recherche d’une certaine conformité, et au travers elle, de légitimité, qu’il s’agisse d’un isomorphisme normatif, coercitif, ou mimétique.
L’isomorphisme normatif correspond aux pressions exercées par l’environnement professionnel. Pour illustrer ce mécanisme dans le secteur public local français, Lande (2005, p. 95) prend l’exemple de l’adoption de l’instruction comptable M14, et met en évidence l’influence des concepts importés des pratiques du secteur privé (image fidèle, principe de prudence, etc.), alors ignorés dans le secteur public local, marqué par les principes budgétaires.
L’isomorphisme coercitif s’entend « des pressions formelles et informelles exercées sur les organisations par d’autres organisations dont elles sont dépendantes et par les attentes sociales de leur environnement » (DiMaggio et Powell, 1983, p. 150). Comme le souligne Scott (1995), la coercition implique l’existence de sanctions afin de garantir la conformité des comportements. Les organisations capables d’exercer une répression auront donc une plus grande influence sur la conformité des comportements attendus. Si Touron (2004, p. 175) met en avant l’édiction des lois et des réglementations par l’Etat comme mécanisme de coercition dans le secteur privé, dans le secteur public local, les sanctions en cas de non respect des pratiques comptables sont symboliques. Toute déviance par rapport à la loi est relevée dans le rapport de la Chambre Régionale des Comptes, dont les observations définitives sont présentées aux élus. Si les sanctions ne sont pas pécuniaires, elles n’en restent pas moins politiques, en offrant à l’opposition des armes supplémentaires (Lande, 2005, p. 94).
L’isomorphisme mimétique apparaît lorsque les organisations cherchent à imiter des organisations similaires de leur environnement qu’elles estiment plus légitimes et ayant plus de succès.
Si l’isomorphisme mimétique ne parait pas pertinent dans cette étude, puisque la collectivité étudiée est la première communauté urbaine à avoir accepté et mis en place l’outil, il parait néanmoins intéressant de mettre en évidence les différentes pressions normatives et coercitives qui ont accompagné l’acceptation du guide des risques.

2.2.       Pressions normatives et coercitives, et acceptation d’une méthode d’analyse des risques

Quelles sont les pressions normatives (1) et coercitives (2) qui ont joué un rôle dans l’acceptation d’une méthode d’analyse des risques dans la collectivité étudiée ?

2.2.1.      L’existence de pressions normatives

Si l’intérêt d’une approche prospective n’est plus à démontrer dans le secteur privé, la mise en place d’une méthode d’analyse des risques dans les collectivités locales est un phénomène relativement nouveau. Parmi les élus interrogés, l’un d’eux, chef d’entreprise, a insisté sur l’intérêt gestionnaire d’une méthode déjà appliquée, bien que différemment, dans le secteur privé. Néanmoins, force est de constater que ce seul argument ne peut suffire. En effet, en 1995, l’Ordre des Experts Comptables a proposé une méthode d’analyse des risques des collectivités locales, qui n’a eu qu’un très faible écho dans la pratique.
Par ailleurs, les relations que les collectivités entretiennent avec les marchés financiers et les établissements de crédit laissent supposer l’existence de pressions normatives. Plusieurs grandes collectivités françaises ont recours à des emprunts obligataires, et font donc l’objet d’une notation. Quant aux établissements de crédit, la refonte du ratio de solvabilité ou ratio Cooke, en vue d’une meilleure prise en compte des risques que supportent les collectivités locales, témoigne de l’actualité et de la sensibilité de ce sujet. En effet, « d’une évaluation forfaitaire du risque des collectivités locales, les établissements bancaires vont être amenés à déterminer le degré d’exposition au risque réel des collectivités. Or, les établissements bancaires sont relativement inquiets sur la capacité du système d’information actuel des communes à répondre à leurs besoins nouveaux, à savoir la connaissance de l’exposition au risque des collectivités locales » (Lande, 2003). Dès lors, si aucun élu n’a insisté en particulier sur ce point, il reste que ce dernier demeure l’un des arguments les plus mobilisés, tant par les administratifs que par les membres du réseau du Trésor, afin de convaincre les élus de la pertinence de la méthode proposée.

2.2.2.      Des pressions coercitives importantes

Le guide d’analyse et de regroupement des risques développé par la DGCP s’insère dans une offre de services de la part du réseau du Trésor aux collectivités locales, au travers des Conventions de Services Comptables et Financiers (CSCF). Ces dernières comprennent la mise en place de différents outils et procédures comptables et financiers afin de moderniser les pratiques actuelles des collectivités locales en la matière. Ces conventions, qui concernent en priorité les plus grandes collectivités locales françaises, leurs permettent d’adapter l’offre à leurs besoins. Dès lors, l’acceptation de la méthode d’analyse des risques n’est donc pas obligatoire et automatique. D’ailleurs, la DGCP n’a pas, a priori, de moyens d’exercer de quelconques pressions coercitives sur les collectivités, puisque d’une part, le guide n’est pas obligatoire au regard de la loi, et que d’autre part, la méthode s’accompagne d’un cahier des charges stipulant que les résultats produits et leur diffusion sont l’entière propriété de la collectivité, cette dernière s’engageant à ne pas détourner les résultats, tandis que le réseau du Trésor s’engage de son côté à ne pas utiliser les résultats sans l’aval de la collectivité, et n’exerce pas de contrôle sur les résultats.
Le caractère non obligatoire de la méthode n’implique pas de contrôle formel. Néanmoins, l’exemple de la ville d’Orléans a montré que, suite à l’acceptation de la méthode, le rapport de la Chambre régionale des comptes faisait état de la mise en place d’une analyse des risques. Dans le cas de la collectivité étudiée, si les élus n’ont pas implicitement fait référence aux CRC comme une pression majeure dans leur choix de mettre en place la méthode, ils gardaient cependant à l’esprit l’image positive de maîtrise que peut apporter une telle méthode.
D’autre part, jusqu’au 31 décembre 2005, aucune obligation légale n’imposait de présenter une information sur les risques, au-delà de la constitution de provisions. Toutefois, la réforme de l’instruction comptable M14, applicable au 1er janvier 2006, modifie le régime des provisions dans les communes ainsi que dans leurs établissements publics.
La M14 prévoyait initialement la constitution obligatoire de provisions réglementées, c'est-à-dire répondant à des obligations légales, et la constitution facultative de provisions de droit commun. La mise en pratique de ce mode de provisionnement a montré toutes ses limites : le caractère obligatoire des provisions réglementées entraîne la comptabilisation de provisions même si le risque n’existe pas, tandis que le caractère facultatif des provisions de droit commun permet aux communes de ne pas provisionner des situations qui le nécessiteraient. L’insuffisance du montant des provisions ainsi comptabilisées remet donc en compte l’application du principe de prudence et la sincérité des comptes.
Par ailleurs, la passation de telles provisions correspond à une opération d’ordre, c'est-à-dire que la dépense de fonctionnement induite a pour contrepartie une recette d’investissement. Cela a pour conséquence d’accroître superficiellement les capacités d’investissement de la collectivité, donc de retarder le recours à l’emprunt ; mais lorsque le risque se réalise, la collectivité doit alors trouver la ressource correspondante.
La réforme de la M14 prévoit de calquer les pratiques des communes en la matière sur le régime privé, en incorporant aux annexes des documents budgétaires annuels, un état des provisions.
Cette réforme se rattache à une logique gestionnaire issue du secteur privé, via une meilleure application du principe de prudence. Néanmoins, un paradoxe apparaît : l’application de ce nouveau régime de provisionnement réduit de fait les marges de manœuvre de la collectivité, et s’oppose ainsi à la logique politique, fondée en partie sur la satisfaction du plus grand nombre et l’affichage politique (au travers des investissements réalisés, des subventions, des projets, etc.)
Dans la communauté urbaine étudiée, ce nouveau régime législatif contente, mais également contraint les élus : un élu, chef d’entreprise, a vu dans cette nouvelle obligation législative, un moyen de favoriser l’implantation de la méthode et de valoriser les résultats. Néanmoins, le mot d’ordre lors de la première restitution des résultats aux élus, à la demande du Directeur Général des Services, fut « d’être rassurant, et de ne pas insister sur des structures en particuliers ». Dans un contexte politique difficile, marqué par la difficulté du consensus politique (au regard du rejet de plusieurs délibérations lors de conseils communautaires, relaté par quelques articles de la presse locale, et confirmé par les administratifs interrogés), et le possible basculement politique de la collectivité centre lors des prochaines élections municipales, une information sur les risques a paru être un argument supplémentaire en faveur de l’opposition. Dans le cas de la collectivité concernée, plusieurs opérations d’aménagement n’ont pas été abordées dans l’analyse car elles recouvraient des aspects politiques forts. La plus marquante porte sur les dérapages financiers d’une opération d’aménagement bénéficiant à la commune centre, portée par la communauté. Dès lors, la méthode d’analyse des risques est donc apparue « gênante ».

Bibliographie :

Allison G., Zelikow P. (1999), « Essence of Decision. Explaining the Cuban Missile Crisis », Longman, 2nd Edition, 416p.
Ansari S., Euske K.J. (1987), « Rational, rationalizing, and reifying uses of accounting data in organizations », Accounting, Organizations and Society, vol. 12, n°6, pp. 549-570.
Arborio A-M., Fournier P. (2003), L’enquête et ses méthodes: l’observation directe, Nathan.
Bernard-Gélabert M-C. (2003), L’intercommunalité, Editions LGDJ, Paris.
Carpenter V.L., Feroz E.H. (1990), « The decision of the state to adopt GAAP: a case study of the Commonwealth of Kentucky », Accounting Horizons, pp. 67-78.
Carpenter V.L., Feroz E.H. (1992), « GAAP as a symbol of legitimacy: New York state’s decision to adopt generally accepted accounting principles », Accounting, Organizations and Society, vol. 17, n°7, pp. 613-643.
Carpenter V.L., Feroz E.H. (2001), « Institutional theory and accounting rule choice: an analysis of four state governments’ decisions to adopt generally accepted accounting principles », Accounting, Organizations and Society, vol. 26, pp. 565-596.
Cour des Comptes (2005), « L’intercommunalité en France », www.ccomptes.fr
Covaleski M.A., Dirsmith M.W. (1986), « The Budgetary Process of Power and Politics », Accounting, Organizations and Society, vol. 11 (3), pp. 193-214.
Covaleski M.A., Dirsmith M.W. (1988), « The Use of Budgetary Symbols in the Political Arena: an historically informed field study », Accounting, Organizations and Society, vol. 13, n°1, pp. 1-24.
Demeestère R. (1980), « Des outils pour la gestion des villes », Revue Française de Gestion, n°25, mars-avril, pp. 86-92.
Demeestère R. (1999), « Pour une réforme de la comptabilité publique », Revue Française de Finances Publiques, Mars, n°65, pp 137-149.
DiMaggio P.J., Powell W.W. (1983), « The iron cage revisited: institutional isomorphism and collective rationality in organizational fields », American Sociological Review, vol. 48, pp. 147-160.
Direction Générale des Collectivités Locales (2001), « L’intercommunalité après la loi du 12 juillet 1999 », version actualisée le 2 juillet 2001.
Direction Générale des Collectivités Locales (2005), « Intercommunalité : une dynamique renforcée dans un cadre juridique rénové. Bilan au 1er janvier 2005 », www.dgcl.interieur.gouv.fr
Dowling J., Pfeffer J. (1975), « Organizational Legitimacy Social Values and Organizational Behavior », Pacific Sociological Review, 18, pp. 122-136.
Dumonteil. J., Montecler (de) M-C. (1999), « Les vrais risques juridiques pour les collectivités locales », La gazette des communes, n°1520, 11 octobre, pp. 8-13.
Feldmann M.S., March J.G. (1991), « L’information dans les organisations : un signal et un symbole », dans Décisions et Organisations, Les éditions d’organisation, Paris, pp. 255-275.
Grenier C., Bonnebouche J. (2000), Système d’information comptable, la représentation comptable de l’entreprise, Foucher, 2ème édition, 320 pages.
Hopper T., Powell A. (1985), « Making sense of research into the organizational and societal aspects of management accounting: a review of its underlying assumptions », Journal of Management Studies, vol. 22, n°5, September, pp. 429-465.
Hopwood A.G. (1990), « The organisational and behavioural aspects of budgeting and control », in Topics in Management Accounting, edited by J.Arnold, B.Carsberg, R.Scapens, University of Manchester, Philip Allan, pp. 221-240.
Jérôme B. (1999), « La hantise des maires d’être mis en cause pour des délits involontaires », Le Monde, 30 avril, p. 8.
Kaplan R.S. (1983), « Measuring manufacturing performance: a new challenge for managerial accounting research », Accounting Review, pp. 686-705.
Kerrouche E. (2003), « « Le lien manquant » Quelques réflexions sur les problèmes démocratiques des intercommunalités à la française », Rencontres internationales Démocratie et Management local, Québec, 20-23 Mai 2003.
Lande E. (2003), « Le système d’information des communes permet-il de mesurer le risque financier ? », La revue du Trésor, n°2, Février, pp. 106-115.
Lande E. (2005), « La comptabilité d’engagement dans le secteur public : un moyen de légitimité ? », dans Burlaud & Lande (eds), Mélanges en l’honneur du Professeur Jean-Claude Scheid, CSOEC, Paris, 2005, pp. 87-100.
Laufer R., Burlaud A. (1997), « Légitimité », Encyclopédie de Gestion, sous la direction de Yves Simon et Patrick Joffre, tome 2, pp. 1754-1772.
Lemée G., Giami P. (1997), « SEM locales : Les comptes reflètent-ils leur situation financière ? », Le Moniteur, 28 novembre, pp. 72-73.
Lüder K. (2003), « Research in comparative accounting over the last decade: achievements and problems », in Montesinos & Vela eds, Innovations in Governmental Accounting, Boston: Kluwer.
March J.G., Olsen J.P. (1986), « Garbage can models of decision making in organizations », in James G. March et Roger Wessinger-Baylon (eds), Ambiguity and command: organizational perspectives on military decision making, Cambdrige, MA: Ballinger, pp. 11-35.
March J.G. (1991), « Systèmes d’information et prise de décision : des liens ambigus », dans Décisions et Organisations, Les éditions d’organisation, Paris, pp. 231-254.
Mauroy P. (2000), « Refonder l’action publique locale », commission pour l’avenir de la décentralisation, rapport Mauroy au Premier Ministre.
Montaigne C. (2004), « Les collectivités locales se lancent dans la notation financière », Les Echos, 19 avril, p. 8.
Pourtier F. (2004), « La publication d’informations financières volontaires : synthèse et discussions », Comptabilité – Contrôle – Audit, tome 10, vol. 1, juin, pp. 79-102.
Saïdj L. (2004), « L’évolution des finances locales au cours des vingt dernières années, quelles cohérences ? », Revue Française de Finances Publiques, n°87, pp 147-156.
Scott R.W. (1995), « Institutions and Organizations », Thousand Oaks, Californie, Sage.
Skinner D.J. (1994), « Why Firms Voluntarily Disclose Bad News », Journal of Accounting Research, vol. 32, n°1, pp. 38-60.
Touron P. (2004), « L’adoption des principes comptables généralement reconnus aux Etats-Unis par Saint-Gobain-Pont-à-Mousson : du conflit d’agence à la légitimité institutionnelle », Comptabilité – Contrôle – Audit, Juin, pp. 161-191.
Wathelet J-C. (2000), « Budget, comptabilité et contrôle externe des collectivités territoriales Essai prospectif », L’Harmattan, 559p.
Yin R.K. (1984), Case Study Research: Design and Methods, Sage.

QU’APPORTE L’ANALYSE ISR À L’ANALYSE FINANCIÈRE ?



La question de l’apport de l’analyse ISR à l’analyse financière est osée, et sans doute trop précoce. Dans son énonciation même elle ne va pas de soi. C’est seulement en 2001, avec la présence pour la première fois chez un courtier d’un analyste dédié à l’Investissement socialement responsable, ou ISR1, que la communauté des analystes financiers commence réellement à s’interroger sur la possibilité d’une analyse différente, complémentaire sûrement, dédiée peut-être.
Les analystes ISR n’étaient pas, loin s’en faut, une nouveauté, mais ils n’avaient jamais recherché une collaboration directe sur l’analyse financière des sociétés cotées. On les trouvait dans les équipes des grands gestionnaires d’actifs britanniques pratiquant l’activisme actionnarial et l’analyse de la gouvernance, ou dans les agences de notation sociale et environnementale ; on en trouvait plus récemment un peu partout dans les maisons de gestion en Europe, à dose homéopathique, avec pour mission de compléter le travail des agences de notation ISR. Les analystes ISR ont essentiellement et toujours eu pour mission de décrypter les politiques et les positionnements des entreprises cotées en matière sociale, environnementale et de gouvernance. Historiquement, leurs méthodes n’ont eu que très peu, voire aucun point en commun avec celles des analystes financiers. Là où ces derniers décortiquaient les comptes des sociétés cotées dans des analyses de comptes d’exploitation et des bilans, pour détecter les tendances et projeter les résultats futurs, les analystes ISR ont plutôt cherché à collecter, trier et hiérarchiser les informations sociales et environnementales, pour produire une opinion, qualitative et/ou quantitative, le plus souvent sur la qualité managériale plutôt que sur les comptes financiers.
La profession d’analyste ISR n’existe pour le moment qu’en pointillé. Est analyste ISR quiconque se livre à des analyses sociales, environnementales ou de gouvernance. Mais, contrairement à la profession d’analyste financier, codifiée et reconnue à travers des diplômes professionnels (le CFA américain et maintenant le CIIA européen) et des associations professionnelles de Place, il n’existe aucune forme de reconnaissance officielle ou de qualification pour un analyste ISR. Métier jeune et aux contours encore mal définis, il se développe au gré des expériences et des méthodologies des utilisateurs. On trouve, certes, des formations d’enseignement supérieur, tels des Masters spécialisés en développement durable, avec le plus souvent un ou deux modules spécifiques sur l’Investissement socialement responsable, mais on est encore assez loin du niveau de technicité des formations d’analyse financière. Une partie de l’explication réside bien sûr dans la jeunesse de la démarche de l’ISR. Comparé à l’ancienneté de l’analyse financière, qui repose elle-même sur l’immense développement des principes et techniques comptables (mais dont la stabilité est aujourd’hui loin d’être un problème résolu, i.e. normes IFRS...), il n’y a là rien d’étonnant ou de déshonorant. Pour autant, la vocation de l’analyse ISR reste sur le fond encore à préciser. Plus pour longtemps, peut-être, compte tenu de l’intérêt croissant des grands investisseurs échaudés par les crises de l’analyse financière (2001-2002) et intéressés par certains signaux envoyés par l’analyse ISR2.
Cette dernière sera d’abord passée sommairement en revue, dans ses méthodes et objectifs actuels, puis rapprochée dans un deuxième temps de l’analyse financière. Deux pistes de convergence seront enfin évaluées, celle de l’évaluation du management comme modulateur de la prime de risque et celle de la variation des hypothèses de croissance moyen et long terme, telles qu’utilisées dans les modèles de valorisation dynamiques (DCF, ou Discounted cash flows).

ANALYSE ISR : UNE CARACTÉRISATION PRÉALABLE EST NÉCESSAIRE
Bref rappel sur les origines de l’ISR
Rappelons juste pour commencer que l’ISR a commencé d’abord comme un investissement fondé sur la primauté de convictions éthiques et le bannissement de certains secteurs de l’univers d’investissement, qu’il a connu ensuite, avec les années 1960, l’étape de l’investissement actif promouvant, au sein des entreprises cotées, des bonnes pratiques, sociales, environnementales, civiques, puis, qu’avec les années 1980, les investisseurs sont passés à l’ère préindustrielle, avec la systématisation des critères de recherche, de sélection et d’exclusion, la mise en place d’équipes professionnalisées d’investigateurs (les premiers analystes ISR). Les années 1990 marquent l’entrée dans l’ère industrielle, avec la conjonction : de thématiques de fond prégnantes et consensuelles (défense de la gouvernance et promotion du développement durable) ; la mise en avant de grilles de lecture « sophistiquées » (approche risque et opportunités, ou leadership/déploiement/résultat) ; enfin la multiplication de structures de recherche, désormais appelées agences, et la livraison d’un produit synthétique, la notation (rating), reposant sur des méthodes de scoring permettant dans l’esprit de leurs utilisateurs de distinguer les meilleures valeurs sectorielles (best-of-class).
Cette sophistication de la recherche3 a eu lieu en parallèle avec le développement des fonds d’investissement ISR. Les fonds « éthiques », si chers aux médias, ont petit à petit laissé la place aux fonds dits socialement responsables, puis aux fonds intégrés dits de développement durable. Les premiers avaient ceci de particulier qu’ils reposaient sur l’utilisation de critères simples répondant aux convictions éthiques des investisseurs, les derniers témoignant d’un souci d’une approche dite globale de l’entreprise, à travers laquelle c’était l’ensemble des dimensions de celle-ci qui étaient évaluées, ainsi que leur alignement avec les grands principes et les grandes contraintes du développement durable (préservation des ressources naturelles, protection des intérêts des parties prenantes, innovation sociétale). Le pari sous-jacent étant que sur le long terme, les entreprises respectueuses du développement durable, en interne comme en externe, seraient les plus durables et sans doute les plus rentables. On voit déjà là pourquoi, inévitablement, dans une telle perspective, l’analyse ISR était appelée un jour ou l’autre à croiser la route de l’analyse financière.

De quel ISR parle-t-on ? ISR éthique ou ISR financier ?
Un débat majeur, en lien avec la question que nous traitons, a occupé le devant de la scène internationale en 2004. Le deuxième rapport de la Fondation Mistra4, au titre explicite de Value for Money, jetait un pavé dans la mare et popularisait définitivement auprès de la communauté ISR le concept de « matérialité ». Réévaluant de leur propre chef l’ensemble des analyses et notations ISR produites jusqu’alors, les auteurs concluaient que la plupart manquaient à atteindre l’essentiel, c’est à dire la mise en exergue des facteurs sociaux et environnementaux et de gouvernance matériels, au sens de susceptibles d’affecter significativement la valeur financière des entreprises. Le rapport ne contestait pas la qualité des grilles d’évaluation sociales et environnementales des différents acteurs de marché, mais leur reprochait de ne pas hiérarchiser l’information en fonction de son importance financière (sa matérialité), à court, à moyen et/ou à long terme. Pour la première fois, l’analyse ISR était officiellement priée de se mettre au service de la performance financière et de compléter, autant que faire se peut, l’analyse financière classique. La réponse ne se fit pas attendre, de la part même de Steve Lydenberg, l’une des figures historiques de l’ISR, cofondateur du cabinet KLD et de l’indice Domini Social Index : selon lui, l’ISR n’a pas nécessairement vocation à se mettre au service de la performance financière. Ses promoteurs ne l’ont pas voulu ainsi à ses origines, et une frange importante de clients ne le veut toujours pas. Certaines causes sociales ou environnementales sont défendues au moyen d’investissements qui donnent aux détenteurs d’actions le droit « d’engager » de manière critique un dialogue avec l’entreprise. N’oublions pas qu’en droit anglo-saxon une société appartient pour l’essentiel à ses propriétaires (pas d’intérêt social), et que le manager est censé tout mettre en oeuvre pour les satisfaire, c’est-à-dire maximiser leurs profits.
Nous avons déjà souligné que s’il y avait bien eu une « sophistication » de la recherche, en matière d’ISR comme en d’autres domaines proches, le dernier qui parle n’a pas toujours le dernier mot. L’idée d’une typologie des fonds ISR fondée sur le degré de sophistication de la recherche et de sa thématique - de l’éthique au développement durable - ne rend guère compte à la fois de la simplicité et de la complexité potentielle de ce mouvement. La distinction simple entre l’ISR éthique et l’ISR financier est plus neutre idéologiquement, moins dépendante des contingences historiques et rend mieux compte des objectifs poursuivis par les investisseurs5. Dans le premier cas, la préférence est donnée à la défense et à la promotion des convictions de l’investisseur, éthiques, sociales et/ou environnementales, alors que dans le deuxième cas l’investisseur place a priori la recherche de la performance financière comme son objectif premier. Dans ce cas d’ailleurs, les facteurs sociaux, environnementaux et de gouvernance (ESG) sont des facteurs dont l’optimisation contribue à maximiser la performance financière. Ainsi, entre deux entreprises d’un même secteur d’activité, aux performances financières sensiblement proches, un investisseur pourra préférer, à performance financière attendue égale, celle qui aura par exemple le plus faible taux d’accident industriel, ou les plus faibles émissions de carbone, ou la meilleure protection sociale de ses salariés. Si l’investisseur conçoit les facteurs ESG comme contributeurs nets de performance financière, il fera le pari à un moment donné qu’entre deux entreprises aux performances sectorielles équivalentes, il vaut mieux prendre celle dont les émissions de carbone sont les plus faibles, car un jour ou l’autre il est bien possible que ces émissions aient une valeur économique et que la plus émettrice des deux soit alors pénalisée par un surcoût jusqu’alors non comptabilisé (phénomène dit d’internalisation des externalités).

Le débat sur la performance financière de fonds ISR relève du processus de gestion, non du processus d’analyse
On le voit, après ce détour par les fondements de l’ISR, l’analyse ISR, c’est-à-dire l’analyse des politiques sociales, environnementales et de gouvernance des entreprises cotées, a une autonomie propre, mais converge avec l’analyse financière classique dès lors qu’elle est utilisée dans une perspective matérielle, autrement dit lorsqu’elle apporte une information financière supplémentaire et complémentaire.
Sur le papier, il est facile de l’écrire, concrètement une telle affirmation tient de la gageure. Cela revient à dire que sur certains domaines ou points spécifiques, l’analyse financière peut ne pas suffire à expliquer la performance financière d’un titre.
Pour l’instant, il est encore trop tôt pour évaluer quantitativement l’apport de l’analyse ISR. Ou du moins il est quasi impossible d’en mesurer l’apport autrement qu’à travers les performances financières des fonds ISR eux-mêmes. Cette question de la performance financière, la plus débattue et la plus controversée de toutes, mériterait un ouvrage à elle seule. Des prix de recherche financière existent spécifiquement sur cette question, comme le prix Markowitz aux États-Unis, ou tout récemment le prix européen de la recherche financière « Développement durable » créé par le Forum pour l’investissement responsable (FIR) (même s’il n’a pas exclusivement vocation à traiter de cette question). Sans ergoter plus avant sur la sous performance quasi systématique de tous les indices ISR existants (à une exception notable près, le DSI), sans même rappeler que les fonds ISR reposent sur des décisions de gestion propres à chaque gestionnaire, sans entrer dans le débat de la sur performance « inexplicable » de fonds ISR théoriques reconstruits6, il convient tout de même de rappeler que l’analyse et la gestion sont deux exercices séparés. De ce fait, la question de l’apport de l’analyse ISR à l’analyse financière doit être traitée, non comme l’examen d’une éventuelle sur performance ou sous performance mesurée par la gestion, mais plutôt sous l’angle du croisement et de la co-intégration de ces deux analyses pour n’en produire qu’une, si cela est possible.

Distinction entre l’analyse ISR et l’audit social et environnemental
L’analyse ISR, pour sa part, reste conceptuellement encore mal définie. La définition de l’audit social et environnemental vient facilement, au sens où il s’agit de mesurer les écarts de conformité des pratiques et performances sociales et environnementales au regard de référentiels de critères préétablis7. Mais quel est le champ propre de l’analyse ISR, quelles sont ses méthodes ? À moins que l’audit social et environnemental ne soit un stade supérieur de l’analyse ISR, celle-ci se définissant alors historiquement comme une analyse documentaire initiale8, avant que les choses sérieuses ne commencent via une vérification détaillée sur le terrain (audit). Les nombreuses critiques dont faisait l’objet le travail des agences de notation ISR auraient ainsi trouvé une réponse adéquate. Un autre courant veut aussi que l’analyse ISR soit un succédané du travail, souvent plus académique, d’analyse des organisations, sous l’angle sociologique et/ou anthropologique. Les facteurs sociaux et environnementaux trouveraient leur vraie place dans l’analyse des facteurs de performance des organisations. Cette critique est partiellement recevable, dans la mesure où la « durabilité » et l’efficacité d’une organisation (ce qu’est l’entreprise) sont probablement bien trop complexes pour être réduites à une simple échelle métrique de performance. L’analyse ISR actuelle, le plus souvent, répertorie un ensemble de pratiques et de mesures telle que divulguées par différentes sources, les note sur une échelle prédéterminée, en agrège les scores détaillés ainsi obtenus, et conclut par un classement intra sectoriel (le fameux best-inclass). L’analyse des organisations, l’analyse sociologique, démontrent pourtant à l’envi qu’il y a des formes d’organisation irréductibles, des éléments culturels structurants, des comportements suffisamment différenciés pour qu’on hésite sérieusement à se prononcer sur la supériorité en toutes circonstances de tel ou tel modèle, de telle ou telle pratique. Pourtant l’analyse ISR l’a fait, pour de bonnes et de mauvaises raisons9.
À ce stade, avant de s’interroger sur l’apport de l’analyse ISR à l’analyse financière, une question préliminaire demeure : l’analyse ISR existe-t-elle réellement autrement que comme un stade transitoire à but marketing (création du « marché de l’ISR ») entre l’audit, l’analyse organisationnelle, voire l’analyse financière fondamentale ? Paradoxalement, un détour par l’analyse financière pourrait grandement éclairer l’intérêt et l’autonomie propre de l’analyse ISR.

L’ANALYSE FINANCIÈRE,UN EXEMPLE À SUIVRE POUR L’ANALYSE ISR ?
L’analyse financière : objectif et méthodes
Sommairement, l’analyse financière peut être définie comme l’art d’évaluer la rentabilité financière d’un investissement sous contrainte de risque. Elle consiste à décomposer les différents éléments de la valeur actuelle d’un investissement et de déterminer, après examen, si celui-ci vaut la peine d’être réalisé, s’il crée de la valeur ou en détruit, selon toute probabilité et toutes choses égales par ailleurs. Il résulte alors que l’analyse financière, contrairement à l’audit comptable, n’a d’intérêt que dans une logique de marché, c’est-à-dire d’échange. Il s’agit de déterminer la valeur d’échange d’une action, d’un titre financier ou plus généralement d’un investissement. Quel est le coût d’opportunité de l’achat ou de la vente d’un titre financier? Bien entendu, l’analyse financière est particulièrement utilisée pour l’évaluation des titres des sociétés cotées (part au capital). Nous ne reviendrons pas sur l’écart fondamental avec la comptabilité. Si l’analyse financière repose sur l’exploitation des données comptables, elle ne se confond pas avec elle. La comptabilité est un ensemble de règles d’imputation des flux et des stocks en valeur historique, à la date d’enregistrement, permettant d’établir avec rigueur un inventaire des richesses et des dettes de l’entreprise - les comptes doivent donner une image fidèle et sincère de ces flux (compte d’exploitation) et de ces stocks (bilan).
En aucun cas la comptabilité ne suffit à établir l’image de la valeur marchande de l’entreprise. Certes, parmi les trois grandes familles de méthodes d’évaluation financière des entreprises figure l’approche patrimoniale, qui repose également sur l’idée d’une valeur déterminée à un instant t donné. Mais, même dans ce cas, le principe des Actifs Nets Réévalués est de reprendre les valeurs de l’actif et du passif non à leur valeur comptable (enregistrement de la valeur historique à la date d’entrée dans le périmètre), mais à leur valeur de marché, parfois proche, parfois éloignée de la valeur comptable, souvent retraitée. Le principal reproche fait à l’approche patrimoniale est de ne pas anticiper l’avenir, c’est-à-dire la capacité de l’entreprise à dégager des flux financiers futurs par une saine mise en oeuvre de ses actifs financés par son passif. Les approches dynamiques d’évaluation ont la préférence des analystes financiers, ainsi que les méthodes dites des comparables qui approximent la valeur d’une entreprise au moyen de comparaisons d’entreprises équivalentes valorisées soit par la Bourse (sur différents multiples financiers), soit par une transaction récente dans le même secteur (à une décote ou une prime près). Bien qu’également statiques, ces méthodes ont l’avantage de s’appuyer directement sur des valeurs de marché, dont certaines, pour ne pas dire toutes, sont en fait calculées à un moment ou à un autre via les méthodes d’actualisation des flux prévisionnels futurs. Il s’agit donc, pour une part, de raccourcis de méthodes d’actualisation. L’objet de ces dernières est essentiellement de déterminer la valeur actuelle nette des flux financiers futurs dégagés par l’entreprise (ou son projet d’investissement), à un taux d’actualisation donné (somme du coût du renoncement à un flux immédiat et d’une prime de risque).

L’analyse ISR, outil prévisionnel comme l’analyse financière ?
L’approche dynamique des flux futurs (dividendes ou cash flows) nous paraît la plus pertinente à la fois pour comprendre l’autonomie propre de l’analyse ISR et l’intérêt de cette dernière pour l’analyse financière. En premier lieu parce qu’elle replace d’emblée l’analyse comme un outil de prévision du futur. C’est, à notre sens, vrai pour l’analyse financière comme pour l’analyse économique, l’analyse sociale, l’analyse politique, ou tout simplement l’analyse ISR. Certes, toute analyse doit avoir des vertus explicatives et des vertus normatives (ce qui doit ou ce qui devrait se passer), mais pour être vraiment utile, notamment du point de vue de l’investisseur, elle doit également avoir des vertus (ou capacités) prédictives10. L’analyse financière permet avec une certaine rigueur la prévision des flux futurs et par là, une valorisation actuelle nette correcte. D’un certain point de vue, la comptabilité enregistre le passé quand l’analyse financière s’efforce de prévoir l’avenir. L’analyse ISR, si elle doit exister, si elle doit subsister, doit s’efforcer d’en faire de même, là où l’audit social et environnemental mesure les écarts constatés à un instant t donné.

L’analyse ISR centrée sur l’investissement
Prévoir, pourquoi pas, mais que prévoir et dans quel but ? Un but social, environnemental, financier ? L’analyse ISR est une analyse reposant sans aucun doute sur les sources les plus diverses, revue ou non par l’entreprise, diffusée ou non par les parties prenantes (stakeholders).
Pour autant l’analyse ISR est-elle faite au nom des parties prenantes et pour les parties prenantes ? La réponse n’est pas évidente, bien qu’originellement les agences sociales et environnementales aient souvent eu tendance à se revendiquer des parties prenantes, au point de faire naître une réelle confusion et un vrai débat de légitimité11 entre agences et ONG et autres représentants de la société civile. À l’heure actuelle, le débat n’est pas encore tranché dans les faits, mais sur le plan théorique il semble plus légitime de rappeler que dans ISR le premier mot est investissement, et qu’historiquement, même les premiers investisseurs éthiques aux États-Unis dans les années 1920 considéraient d’abord leur démarche sous l’angle de l’investissement12. Compte tenu du sujet, considérons seulement les capacités prédictives de l’analyse ISR en matière de performance financière13.

Les vertus prédictives des notations ISR, un terrain encore largement à défricher
À l’heure actuelle, aucun travail d’ensemble ne semble avoir été publié, ni par les agences ni par les investisseurs, sur les capacités prédictives financières des notations ISR14. Le trop faible nombre d’années de notation disponibles est dans la plupart des cas une bonne raison pour qu’il en soit ainsi. Les agences pratiquant l’art de la notation sociale et environnementale remontent dans le meilleur des cas au milieu des années 1990 (Innovest). Il n’en reste pas moins qu’on attend avec impatience la constitution des tables historiques de notations et leur rapprochement avec des tables de performances financières postérieures des titres financiers, à l’instar de ce que font les agences de notation financière sur les défaillances dans le cas du risque crédit15. Il serait particulièrement intéressant, à cet égard, d’examiner si ces notations ont une éventuelle capacité prédictive de la rentabilité économique, de la rentabilité financière, ou plutôt du risque des titres financiers des sociétés cotées16. À cet égard, il est évidemment pour le moins maladroit de supposer a priori que le risque social et environnemental - risque de long terme - peut remplacer directement dans l’évaluation d’un titre le risque propre d’un titre (risque non diversifiable). En toute rigueur, s’il y a un lien entre le risque financier et une forme de risque extra financier (résultant de facteurs ESG, i.e. des facteurs environnementaux, sociaux et de gouvernance), mieux vaudrait d’abord prendre le temps de le détecter avant toute application directe et mécanique dans les formules d’évaluation financière. Cependant, ceci nous amène par deux voies au coeur du sujet de l’apport de l’analyse ISR à l’analyse financière17.

LA SENSIBILITÉ AU RISQUE MODULÉE PAR UNE ÉVALUATION ISR DU MANAGEMENT DE L’ENTREPRISE
Le risque de l’entreprise face à ses parties prenantes
Fondamentalement, l’une des pistes les plus intéressantes pour déterminer l’apport de l’ISR à la finance est bien celle de la modulation du risque. Les tenants de la défense des intérêts des parties prenantes et de la société civile argumentent justement que « rien n’est plus comme avant » et qu’une entreprise qui s’obstinerait à ne pas tenir compte de leurs demandes implicites ou explicites s’exposerait, à un horizon plus ou moins long, à de sévères déconvenues, en termes de campagne de communication négative, de détérioration de son image de marque, d’amendes, de provisions pour dommages, d’obsolescence de ses technologies pour cause de renforcement de législation, de difficultés de recrutement, voire de pertes de parts de marché18. Inversement, l’entreprise qui serait en écoute active (proactive même) de ses parties prenantes aurait, à terme, un avantage concurrentiel sur ses concurrents et une moindre exposition aux aléas de la marche des affaires. Il faudra faire attention cependant à ne pas céder à la tentation de la facilité et crier au risque comme on crie au loup dès la première crise ou contradiction venue. Si le risque d’image et toutes ses conséquences sont systématiquement brandis par les parties prenantes, si le risque opérationnel est au cas par cas avancé, la mesure précise de l’impact potentiel dans le détail (pertes de chiffre d’affaires, provisions, pertes de collaborateurs...) reste délicate (les probabilités étant difficiles à estimer) et souvent circonscrite en termes monétaires (les boycotts étant, eux, rarement efficaces). Les exemples et, plus encore, les contre-exemples abondent. Dans un secteur mondial tel que l’exploration, production et raffinage du pétrole, comment départager clairement, en termes de risques extra financiers, Exxon, pionnier de l’exploration des énergies renouvelables dans les années 1980, mais qui y a depuis renoncé par manque de perspectives économiques, au grand dam des lobbys environnementalistes, de BP (Beyond Petroleum) et de Shell (qui vient d’annoncer, fin d’année 2005, un plan de 8 Mdd’investissement en faveur d’énergies « propres » sur les 10 prochaines années) ? Ou encore, faire un choix entre Shell, parangon de bonne gouvernance jusqu’à l’accident majeur de janvier-février 2004 sur la comptabilisation de ses réserves, et Total, gêné aux entournures depuis la fin des années 1990 par le naufrage de l’Erika, l’accident d’AZF et les accusations d’avoir eu indirectement recours au travail forcé en Birmanie (affaire pour laquelle le groupe vient enfin de trouver un accord à l’amiable), mais qui affiche une croissance supérieure à son concurrent depuis 6 ans ?
La modestie s’impose. L’analyse ISR ne sera pas, ne peut pas être une révolution dans l’analyse financière. L’évaluation d’une société ne sera probablement modifiée dans la plupart des cas qu’à une certaine marge près19. En termes de risques, une amélioration à la marge est certainement possible à travers la détermination d’un risque systémique au niveau du management de l’entreprise, en supposant qu’à l’avenir une société qui a régulièrement maille à partir avec les parties prenantes (clients, fournisseurs, salariés, collectivités locales, ONG, États, autorités de régulation) présente un risque « systémique » d’entreprise supérieur, notamment en cas de crise grave ou de changement structurel (opération de croissance externe, changement de modèle économique, irruption de nouveaux concurrents plus agressifs...).

Du risque ISR au MEDAF, il n’y a qu’un pas...
Nous l’avons dit, l’approche par le risque est prometteuse. Dans la théorie du Modèle d’équilibre des actifs financiers (MEDAF), le risque d’un titre financier est mesuré par son β, à savoir sa sensibilité aux variations de marché. L’équation classique simplifiée est de la forme :
Ri = Ro + β  × (Rm – Ro)
Ri est l’espérance de rendement du titre i, Ro le taux sans risque, Rm la rentabilité du marché (actions), et β  la sensibilité du titre i aux variations de marché.
Ro est le rendement d’un actif sans risque et β  × (Rm - Ro) la prime de risque. La connaissance de la sensibilité (β) de chaque titre et des paramètres que sont le rendement sans risque (Ro) et le rendement moyen du marché (Rm) déterminent a priori l’espérance de rendement du titre i (Ri ). Le β  du titre est bien une variable clé ; elle ne permet pas de prévoir à tout moment le cours de Bourse du titre i mais d’en prévoir l’espérance de rendement20. L’application du β  et des paramètres que sont le taux sans risque et le différentiel de rendement entre le marché et la dette sans risque (ou prime de risque du marché) permet ensuite d’en déduire directement par calcul le taux d’actualisation (espérance de rendement minimal exigé) de l’investissement21 (qui n’est autre que Ri).
Du β  observé ex post il est possible de passer à un β  prévisionnel, soit par l’hypothèse que ce β  restera stable sur la période de retour sur investissement, soit en recourant à une décomposition du β  en «β  sectoriel » ou d’activité (moyenne pondérée ou non des β  des entreprises travaillant dans le même secteur, voire mieux, la même activité) multiplié par un coefficient propre à l’entreprise, que l’on peut appeler «β  entreprise ». Hors endettement et en supposant que l’entreprise i soit présente sur un seul secteur d’activité relativement homogène, on a donc :
β titre i = β activité i ×  β entreprise i
Cette décomposition est couramment utilisée par les praticiens, notamment parce que le β  individuel des titres est relativement volatil (fort écart type sur différents échantillons), contrairement aux β  de portefeuilles, comme les β  de secteur d’activité22. Pour des β  prévisionnels plus stables, il est donc plus utile d’introduire un niveau intermédiaire.
Quel intérêt alors en matière d’analyse ISR ? C’est qu’en matière de prévision, il est toujours possible de moduler à la marge les β  retenus, sectoriels ou d’entreprises, en cas de doute ou, au contraire, de forte confiance dans le secteur ou l’entreprise. On pense ici notamment à l’entreprise. Les praticiens modulent souvent le β entreprise par un coefficient sur la qualité du management. Ils se fondent, en général, sur une évaluation de la qualité du management mesurée par la capacité, historiquement démontrée ou non, de la direction à tenir ses objectifs.
Si la direction se trompe régulièrement sur ses prévisionnels de croissance du secteur, du chiffre d’affaires de l’entreprise, de résultats délivrés, il ne paraît pas anormal que l’investisseur prenne ses précautions en appliquant au β entreprise un β  de qualité du management supérieur à 1. En d’autres termes, si certains managers ont une tendance naturelle, pour de bonnes ou de mauvaises raisons, à ne pas tenir leurs promesses (du moins les minima requis), cela crée une incertitude supplémentaire pour l’investisseur, qui préférera certainement alors demander un supplément de rendement espéré (via le taux d’actualisation).
L’équation devient alors, pour tout titre i et sans tenir compte de l’endettement :
β titre i = β activité i ×  β entreprise i ×  β qualité du management i
Un β qualité du management supérieur à 1 (> 1) signifiera simplement que, par rapport à la moyenne des managements observés, celui de l’entreprise i risque de tenir moins souvent ses promesses de   « délivrables ». On voit, par extension, tout ce que la thématique de gouvernance pourrait également apporter en relation directe avec cette évaluation prévisionnelle de la qualité du management. Sur un horizon de quelques années, pourquoi effectivement ne pas intégrer aussi, de la part de l’investisseur, une évaluation des éventuelles lacunes en termes des facteurs suivants : expérience du management (changement de business model, de modèle concurrentiel, changement technologique) ; diversité (par rapport à la diversification internationale du marché, des segments de clientèle) ; renouvellement (possible difficulté de passage de témoin sur l’horizon prévu) ; indépendance des administrateurs et d’équilibre des pouvoirs au sein des organes de contrôle (possibles choix comptables ou de stratégies hors normes, potentiels conflits d’intérêts destructeurs de valeur) ; rémunérations (stimulation insuffisante du management) ; de transparence (difficulté à réajuster ses choix tant qu’il en est encore temps, compte tenu d’une insuffisance d’information pertinente). Ce β qualité du management est donc assez proche d’un éventuel β gouvernance (ou d’une série de sous βgouvernance). Le β gouvernance remplacerait-il le β qualité du management ? Pas nécessairement, les deux informations pouvant être jugées suffisamment distinctes pour être évaluées séparément et intégrées toutes les deux. En la matière, c’est probablement l’usage qui déterminera - déterminerait- le calcul d’un tel β gouvernance, à savoir la valeur ajoutée dans la précision du calcul du β  final compte tenu du coût d’obtention de l’information puis de calcul d’un β gouvernance.
La gouvernance étant l’un des éléments constitutifs de l’analyse ISR, on voit déjà sur ce plan précis ce que serait son apport à l’analyse financière. À ce stade cependant, une question de méthode mérite d’être posée, à savoir, s’il faut intégrer l’évaluation des éléments de gouvernance dans le calcul du β  final, ou s’il ne vaut pas mieux considérer qu’il s’agit d’éléments réellement à part et qui modulent en propre. Autrement dit écrire l’équation comme :
Ri = Ro + β  (Rm - Ro) + Δgouvernance
avec Δgouvernance = écart (positif ou négatif) de pratiques de gouvernance par rapport à la moyenne observée.
Nous aurions alors une prime de risque gouvernance autonome23. Outre que cette solution n’a jamais été testée empiriquement, l’inconvénient est surtout que ce Δ éventuel n’est pas ici normalisable au même titre que le β  que nous connaissons comme sensibilité aux variations de marché. Comment ramener ce Δ à un certain pourcentage de rendement ? Si ce Δ est un pourcentage d’écart par rapport à des pratiques observées en matière de gouvernance, ce pourcentage ne peut être ajouté ou soustrait tel quel à une équation de rendement. Ce Δ de gouvernance devrait éventuellement être régressé par rapport à une prime de risque en termes de rendement24. Il paraît en revanche bien plus opérationnel pour le praticien de l’analyse de s’en tenir au modèle MEDAF à un seul facteur et sur le plan prévisionnel de moduler un βentreprise, considérant des hypothèses sur le risque spécifique que fait courir ou non le management. À destination, météorologie, bateau et équipage égal, le capitaine peut faire la différence.

Quel calcul possible pour un β ISR ?
Si le principe de la modulation à la marge du β  est retenu, il reste encore à déterminer le niveau et l’étendue de cette modulation. En la matière il semble que les techniques de scoring retrouvent une certaine pertinence. Si un ensemble de bonnes pratiques peuvent être orientées sur une échelle à sens unique (de la mauvaise à la bonne pratique), il paraît possible de les scorer chacune puis d’en déduire tout logiquement, par échantillon, des moyennes et des écarts types à partir desquels centrer et normer les variables obtenues25,26. Éventuellement, par esprit de rigueur, on pourra préférer décomposer cette performance extra financière via une analyse factorielle, voire par régression éliminer les effets indésirables contenus dans les scorings (effet taille, effet pays, effet secteur)27. Au final, on aboutira à une variation en pourcentage par rapport à la moyenne des pratiques observées (cadre de l’approche du best-in-class), qui pourra être transcrite ensuite en β gouvernance inversé (1 pour la moyenne de l’échantillon considéré, > 1 pour les « mauvais élèves », < 1 pour les « bons élèves »). Quelle étendue parcourra ce βgouvernance ? Il est trop tôt pour le dire. Fondamentalement, il n’y a pas de limite, mais la pratique ou des tests économétriques devraient permettre d’en borner l’étendue dans des limites raisonnables, au maximum sans doute entre 0,5 et 1,5, et sans doute beaucoup moins, compte tenu de l’extrême sensibilité des valorisations d’entreprises aux variations du taux d’actualisation retenu.

β  prévisionnel et subjectivité
La piste du β  prévisionnel, modulé en fonction de la qualité de la gouvernance, mais au-delà du management des facteurs extra financiers de l’entreprise, nous paraît une piste prometteuse, opérationnelle et raisonnable. L’objectivation et l’élargissement des critères d’appréciation de qualité du management sont assurément cohérents avec le principe de l’analyse financière. La modulation prévisionnelle, compte tenu du contexte de management et de l’environnement changeant de l’entreprise, introduit certainement un élément non purement financier (ISR) dans le calcul de l’espérance de rendement exigé, que certains taxeraient d’emblée de « subjectif » et donc d’inapproprié. Le choix du β, dont sa période et ses modalités de calcul, est également en soi subjectif. La connaissance de la capacité du management à faire face aux nouveaux défis, stratégiques, financiers, mais aussi extra financiers (en ceci qu’ils influent sur les transactions financières des parties prenantes avec l’entreprise) nous paraît mériter une modulation du β  prévisionnel et, par là, une modulation de la prime de risque et donc du taux d’actualisation des flux futurs de l’entreprise28. Pour l’instant il est vrai que l’analyse financière et l’analyse ISR restent déconnectées, ne se rejoignant finalement que dans le processus de sélection des valeurs (processus de gestion et non d’analyse), à travers soit des limitations d’univers d’investissement soit des pondérations altérées29.

L’ANALYSE ISR : UNE POSSIBLE RÉÉVALUATION DES HYPOTHÈSES SUR LES FLUX FUTURS
Intérêt et limites des évaluations dynamiques
La modulation de la prime de risque, qui intervient au dénominateur dans la série des flux (de cash ou de dividendes) à actualiser, n’est pas la seule piste. Les flux eux-mêmes sont également susceptibles d’être modifiés. Il existe différents modèles d’actualisation des flux de cash ou de dividendes (Gordon et Shapiro, Molodowski, Bates notamment).
Une des différences majeures entre ces modèles et le nombre de périodes d’actualisation, autrement dit le nombre de périodes sur lesquelles l’investisseur modifie ses hypothèses d’évolution des flux. En effet, s’il est rare que le taux d’actualisation soit modifié en cours de route (encore qu’une variation de la prime de risque n’est pas à exclure sur le long terme, au contraire) la grande question est celle du numérateur. Si en année 1 la société dégage un flux (dividende ou cash) F1 bien estimé, et qu’il est possible avec une forte probabilité d’estimer avec précision les flux F2 et F3 en années 2 et 3, les flux des années postérieures commencent à se percevoir avec un certain flou. Il est recommandé sur le plan théorique, et plus encore dans l’usage, de décomposer l’avenir en 3 périodes au moins :
- la première (de 2 à 3 années) sur laquelle l’analyste établit un compte d’exploitation prévisionnel complet, poste par poste, et en déduit les flux correspondants ;
- la deuxième, dite transitoire, de l’année n+3 à l’année n+z (souvent n+10), sur laquelle l’analyste conserve le flux n+2 et lui applique un taux de croissance g1 basé sur des hypothèses de croissance économique du chiffre d’affaires de l’activité et d’évolution des dépenses d’exploitation ;
- une troisième, période d’actualisation à l’infini, pour laquelle un taux de croissance g2 des flux, en général très conservateur, est appliqué (il faut au moins que g2 < i, où i est le taux d’actualisation retenu).
Autrement dit, la valeur finale V de la société est une somme de 3 sommes actualisées :
V = V1 – 3 + V4 10 + Vt Vt= Valeur terminale.

Qu’on peut encore écrire comme :
En introduisant dans le calcul des deuxième et troisième périodes un taux de croissance g stable entre chaque flux, tel que Fn + 1 = Fn × (1 + g), et après simplification, il vient assez facilement que pour la deuxième période, on a une suite géométrique de raison (1+g1)/(1+i) et (1+g2)/(1+i) pour la 3e période.
On touche là, à notre sens, tout l’intérêt et en même temps le paradoxe, qui, pour une part significative de sa démonstration, repose une série d’estimations conventionnelles. Avec l’utilisation des méthodes dynamiques d’évaluation reposant sur des flux actualisés, une partie importante de la valeur d’une société résulte des flux « lointains » (actualisés à un taux qui aura probablement varié d’ici là). La valeur terminale, résultat du calcul d’actualisation de la période finale, peut facilement représenter plus de la moitié de la valeur totale calculée. Et cette valeur terminale est extrêmement sensible aux paramètres de calcul que sont le flux d’entrée, son taux de croissance et le taux d’actualisation. Le plus souvent le taux de croissance est pris dans un sens conservateur, par exemple à hauteur du taux d’inflation supposé, ou de la croissance économique générale de longue période. L’actualisation est alors un art difficile, aux frontières des conventions (3 paramètres synthétisent le peu d’information sur l’avenir)30.
Au fur et à mesure que le versement des dividendes ou la génération de flux de cash s’éloigne dans le temps, l’analyse financière perd en précision et en détail. Les faits sont remplacés par les hypothèses, et ces dernières font varier le résultat de manière croissante. A horizon lointain l’analyse financière ne repose plus que sur un nombre réduit de paramètres, qui ne sont que des hypothèses, et qui jouent pourtant un rôle important dans la valorisation totale de la société, à travers la détermination de la valeur terminale.

L’apport potentiel de l’ISR aux prévisions de moyen et long terme
Il semblerait a contrario que l’analyse ISR, en prise avec les enjeux du développement durable jusqu’à leur application à l’entreprise, s’efforce justement de détecter les forces et les faiblesses, les risques et les opportunités de long terme de l’entreprise. En effet, ces éléments extra financiers, ces facteurs structurants ou structurels - comme la pyramide des âges de l’entreprise, le niveau de formation et la capitalisation du savoir (knowledge management), la qualité des produits, la conformité aux normes actuelles et futures (santé, sécurité, environnement) des produits et des sites de production, la fidélisation des collaborateurs, l’équité et l’efficacité des rémunérations... - n’influent que progressivement et sur une longue période, et le plus souvent de manière graduelle et imperceptible. Sauf exceptions, leur plein effet n’est quasiment pas perceptible sur le court terme (en raison de leur inertie propre), contrairement à certains facteurs financiers, industriels ou de modèle économique (croissance externe, plans de licenciement, fusions et acquisitions, réduction des frais généraux, redéploiement des forces de vente, ouverture de nouveaux marchés). Là réside le paradoxe : c’est lorsque la prévision financière devient un art difficile, aux frontières des règles d’ordre conventionnel (choix de paramètres synthétisent le peu d’information sur l’avenir), que les facteurs extra financiers prennent probablement tout leur sens.
Dans ces conditions, on comprend mieux les réticences de bien des analystes et des bureaux d’étude sur l’intégration de critères extra financiers dans leurs méthodes de valorisation. C’est au moment où dans le calcul entrent en jeu des constantes, souvent d’ordre macroéconomique (taux de croissance national, taux d’inflation...), qu’il faudrait remettre du détail et du débat sur les perspectives et les fondamentaux propres à la société valorisée. Or, les analystes financiers savent bien que les périodes moyen et long terme constituent un no man’s land dans l’analyse financière, une « zone de non-droit » dans laquelle chacun est d’ailleurs tenté de s’arranger pour redresser ou abaisser une valorisation jugée insuffisante par rapport à ses convictions profondes sur la société. Sur période longue, il est d’ailleurs évident que le taux de croissance perpétuel du flux futur est presque un exercice conventionnel. Affirmer, par exemple, qu’aucune des sociétés du CAC40 actuel ne connaîtra après 2015 une croissance de la génération de cash de plus de 3 ou 4 % relève de la convention31. Il nous semble au contraire qu’une analyse ISR, même sur la valeur terminale, peut jouer un rôle efficace, valeur par valeur ou secteur par secteur.
Ainsi, si au début des années 2000 une entreprise spécialisée dans la génération et la fourniture de gaz industriels a développé un important effort de R&D sur l’hydrogène et la pile à combustible et entame une politique de développement d’actifs sur cette activité dont on sait qu’elle fera massivement partie du bouquet énergétique futur, ne serait il pas normal que son taux de croissance de longue période soit relevé ?
Une réflexion sur le développement durable fera clairement apparaître non pas la baisse du taux d’actualisation pour une entreprise bien placée sur la génération d’hydrogène (l’exigence de rentabilité ne baisse pas, non plus que le CMPC - coût moyen pondéré du capital), mais une hausse probable des flux futurs. Le taux de croissance perpétuel en toute logique doit être réajusté, avec comme conséquence une hausse de la valeur terminale. En termes relatifs, la valeur terminale pèse désormais davantage dans la valeur totale calculée, ce qui revient à dire que l’investisseur augmente son exposition au long terme32.

Des modifications possibles du compte d’exploitation prévisionnel
Si l’analyse ISR ne consistait, au final, qu’à modifier ex post les hypothèses de taux de croissance à l’infini, ce serait déjà un grand pas (l’impact sur les valorisations peut être considérable compte tenu de la sensibilité des valeurs terminales aux paramètres retenus)33. Mais faut-il réduire son apport à la seule modulation du taux de croissance ? Il semble, encore une fois, que l’analyse ISR, en s’appuyant sur d’autres sources et avec un autre regard, puisse le cas échéant apporter des contributions significatives à l’analyse à court - moyen terme. Ponctuellement, l’analyse des nouvelles contraintes réglementaires, sociales mais surtout environnementales peut avoir une influence sur courte période, directement sur le compte d’exploitation. L’exemple des impacts financiers liés à la mise en oeuvre de la directive 2003/87/CE (mise en oeuvre du marché des quotas de carbone en Europe) a été, à de très nombreuses reprises, traité par les bureaux d’analyse financière des courtiers, notamment sur le secteur des utilities. L’intégration du surcoût supplémentaire des émissions non couvertes par les quotas distribués en entrée de période a entraîné mécaniquement une tendance à la hausse des prix de l’électricité. À 20 la tonne et avec les deux  hypothèses suivantes : couverture de quotas de l’ordre de 90 % et un niveau d’émission moyen de 500 kg/MWh, le coût moyen supplémentaire pour tout MWh produit est de 1 , avec des coûts de production variant entre 28 et 40 suivant la source d’énergie. L’impact n’est donc pas négligeable, et peut rapidement être perceptible sur le chiffre d’affaires (capacité à répercuter la hausse) et/ou les coûts de production. Comme le prix du MWh supplémentaire dépend du coût marginal de l’unité génératrice supplémentaire à mettre en activité (en général une centrale à charbon), le surcoût du CO2 intégré dans ce prix marginal peut se traduire par une hausse de la rente pour les producteurs disposant d’un parc immunisé contre le CO2 (forte composante nucléaire et/ou renouvelable). Les effets des variations du prix de la tonne de CO2 se sont fait sentir, cette année 2005, sur les marges de société comme Endesa, E.ON, RWE, Enel, EDF, et ont certainement joué un rôle dans la décision d’Iberdrola de lancer une opération de rapprochement avec Endesa, toujours en cours. Et début octobre, Rhodia a été l’objet d’une réévaluation positive au consensus à la suite de l’annonce de la probable acceptation (depuis avérée) d’un mécanisme de développement propre (MDP, ou CDM en anglais pour Clean Development Mechanism) dans les pays émergents lui permettant, à terme, de revendre sur les marchés carbones ses quotas excédentaires.
Autre exemple significatif à notre sens de l’apport de l’ISR dans la modification du compte d’exploitation prévisionnel : le changement climatique et le secteur de la réassurance. Pendant longtemps, les variations du climat ont été tenues pour négligeables. Certes, le coût en dollar constant des catastrophes naturelles n’a cessé d’augmenter, mais cette augmentation résidait principalement pour les assureurs et les réassureurs, au final, dans l’urbanisation croissante de zones à risque, ainsi que dans la valorisation croissante des actifs économiques générés par le développement. Une catastrophe naturelle hors norme, voire une saison cyclonique hors norme, atteignaient directement les couvertures de réassurance et, par là, la marge du réassureur, mais en retour provoquait une hausse des primes de réassurance, telle d’ailleurs que la rentabilité de l’activité montait au point d’attirer de nouveaux entrants dans le secteur de la réassurance34. Bref, le secteur se caractérisait jusqu’à maintenant par une cyclicité « stable ». De ce fait, l’impact attendu des catastrophes naturelles, pour les réassureurs exposés à ce risque aux États-Unis, était calculé par rapport à une moyenne long terme des pertes enregistrées (en pourcentage des primes émises) censée refléter correctement la sinistralité. Or, si le changement climatique est bien à l’oeuvre et qu’il se manifeste par une fréquence accrue des événements extrêmes (sans parler de leur intensification), les statistiques cycloniques et les tables de sinistralité liées perdent en pertinence pour décrire la réalité des pertes à subir. Une plus grande fréquence rend caduque l’intégration dans la sinistralité prévisionnelle des cas constatés dans les décennies 1960 et 1970 par exemple. Une incertitude structurelle se glisse dans les statistiques et partant dans le calcul des primes pour couvrir la sinistralité. L’exercice prévisionnel devient d’autant plus délicat pour le réassureur exposé que les controverses sur le changement climatique et ses effets restent encore scientifiquement débattus et difficilement modélisables, et que la rigueur statistique l’inciterait plutôt à garder dans ses modèles les pertes enregistrées sur très longue période, alors que la période actuelle n’a peut-être plus les mêmes caractéristiques.
L’inconvénient est désormais que son montant provisionné est chaque année insuffisant pour faire face, et qu’ainsi le réassureur déçoit régulièrement les investisseurs en annonçant des résultats en deçà de ses attentes35, sans parler de la difficulté grandissante à faire accepter aux assureurs non exposés géographiquement une hausse de leurs primes.
Sur un cas tel que celui-là, l’analyse ISR doit être en mesure d’alerter l’analyste financier du caractère trop optimiste des hypothèses et l’inciter à modifier de lui-même ces hypothèses dans son propre compte d’exploitation prévisionnel.
Ces exemples sont donc certainement significatifs de l’apport éventuel de l’ISR en tant que porteur d’une parole contradictoire, d’un principe de précaution ou tout simplement d’un principe de réalité.
Pour autant, il faut encore se garder, à ce stade de développement, de toute généralisation hâtive. Si le passage au crible des hypothèses retenues par l’analyste financier paraît souhaitable dans une approche matricielle (compte d’exploitation - enjeux ISR), il est beaucoup trop tôt et même peu probable que la plupart de ces hypothèses financières puissent être, dans leur majorité, remises en cause, soit par manque d’information plausible ou « matérielle », soit parce que l’information ISR est déjà « dans les cours » (l’analyste financier l’a déjà implicitement ou explicitement intégrée), soit parce que l’effet passe par une multitude d’interactions non imputables à une seule hypothèse (le vieillissement des effectifs peut jouer de manière diffuse sur la motivation, la grille des rémunérations, les coûts de formation, l’innovation...). Il pourrait dans un certain nombre de cas être préférable de passer par un niveau de risque systémique plutôt que par une longue et fastidieuse revue de chaque hypothèse du compte d’exploitation prévisionnel. L’information sociale et environnementale ne se laisse pas « matérialiser » si facilement que ça, par nature ou parce que les coûts d’analyse sont trop élevés.

L’analyse ISR et le « passage à la limite » du non valorisé
Le cas de Rhodia évoqué ci-dessus peut d’ailleurs s’entendre comme un passage à la limite. À partir du moment où les quotas surnuméraires étaient validés, on pouvait dès lors les considérer comme un actif (des titres financiers) avec un prix d’échange connu : on est dès lors définitivement passé dans le champ de l’analyse financière classique. Il faut d’ailleurs souligner que nombreux sont les bureaux d’analyse à avoir étudié les conséquences financières de l’irruption du marché carbone, sans avoir jamais recouru explicitement ou implicitement à une « analyse ISR ». C’est un trait à notre sens caractéristique et durable de l’éventuelle dichotomie entre analyse financière et analyse ISR. Cette dernière, si elle doit subsister aux côtés de l’analyse financière, ne peut avoir d’autonomie que si elle s’éloigne des évaluations à court terme et de la valorisation de ce qui a déjà un prix. En effet, dès lors qu’il y a un prix (de l’actif, de l’option, du dommage) et une certaine probabilité d’occurrence, les mécanismes classiques de valorisation financière, voire comptable, se mettent en route et impactent inévitablement l’analyse.
Le cas de la crise de l’amiante est certainement révélateur. Si les agences de notation ISR avaient à plusieurs reprises tiré la sonnette d’alarme sur l’existence de ce risque grave pour la santé humaine, de manière qualitative ou prospective (effets sur les personnes sur un horizon de temps long), elles n’étaient pas en mesure de déterminer l’impact futur du coût (personne d’ailleurs). Dans le cas d’ABB, mais aussi de Saint-Gobain, il a fallu la bombe à retardement des class actions américaines et surtout des réclamations auprès des filiales américaines pour que les entreprises, sur le conseil de leurs services juridiques, commencent à estimer le nombre de dossiers, le montant moyen, les suites juridiques ultérieures et partant le montant des provisions à constituer. Brutalement, Saint-Gobain a dû provisionner 100 Mpar an à partir de 2001 pour les demandes concernant Certain Teed la filiale américaine. Mais une fois les provisions constituées et les premières estimations du nombre potentiel de dossiers, du montant moyen déboursé et de l’efficacité estimée des class actions, l’information est du domaine public de l’analyse financière, et intégrée par l’entreprise elle-même dans ses comptes, ce qui incidemment facilite la tâche des analystes et les rassure car elle leur permet de se caler par rapport au consensus de marché. L’analyse ISR n’apporte plus rien dans ce contexte, si ce n’est pour souligner que des risques amiante existent peut-être toujours, dans d’autres régions du monde, avec des coûts variables, certainement moindres.
L’exemple de l’amiante est enfin particulièrement intéressant du point de vue méthodologique car la crise qui a secoué le secteur des matériaux de construction était en germe 40 ans auparavant, en tant que passif environnemental. C’était au-delà même des traditionnels éléments « hors bilan » de la société, une externalité négative latente. L’analyse ISR, parce qu’elle a une focale différente de l’analyse financière en termes d’horizon privilégié et un autre rapport à l’entreprise, via l’intégration des sources provenant des parties prenantes, est en mesure d’apporter alors un éclairage complémentaire à l’analyse financière, directement sur les flux futurs générés (voire les retours de bâton du passé dans le cas de l’amiante) ou, comme nous l’avons dit précédemment, à travers un risque systémique latent (β qualité du management) non pris en compte dans le β  classique.


Conclusion

Les méthodes de l’ISR ont enregistré des progrès considérables, notamment dans la collecte et le traitement des informations. Les acteurs pionniers de l’analyse ISR ont eu le mérite de faire naître le débat, de susciter l’intérêt de certains investisseurs, de pousser les entreprises à communiquer et de favoriser l’émergence de cadres volontaires ou réglementaires de divulgation de l’information ESG (environnementale, sociale et de gouvernance)36.
Il faut cependant bien convenir que les méthodes d’évaluation, malgré un formalisme croissant, restent dans un champ circonscrit, normalement dévolu aux méthodes d’évaluation du management des praticiens de la qualité. Certes, de nombreux travaux ont cherché à démontrer la pertinence, en termes de performance financière, des analyses ISR ainsi conduites, mais ces analyses étaient intégrées en aval dans le processus décisionnel, et non dans l’analyse financière (modulation de l’univers d’investissement, pas de la valorisation).
La convergence directe entre l’analyse ISR et l’analyse financière est un processus à peine amorcé. Cette convergence n’est pas l’objectif ultime de l’analyse ISR (il y a certainement une vie propre des notations ISR), mais c’est un processus nécessaire si, comme l’auteur de ces lignes le pense, il y a dans les facteurs sociaux, environnementaux et de gouvernance suffisamment d’éléments susceptibles d’impacter - rarement à court terme, mais bien plus souvent à moyen et long terme - la valorisation d’une entreprise.
L’analyse ISR, pour grandir, peut ou non s’inspirer de l’analyse financière. Mais ses apports surtout peuvent et doivent certainement être retranscrits en langage financier, dans les méthodes robustes développées de longue date par l’analyse financière, ne serait-ce que pour trouver un langage commun et une base de discussion. À travers le β  prévisionnel, qui entre dans le calcul du taux d’actualisation ou du CMPC, à travers des cas concrets de probable modification, soit du taux de croissance à long terme, soit de certains postes du compte d’exploitation prévisionnel, le passage à l’acte est possible et sans doute même nécessaire.
Fondamentalement, si les informations apportées par l’analyse ISR ne sont pas étrangères aux préoccupations coutumières de l’analyste financier, les méthodes d’investigation, les sources d’information et la perspective long terme de l’analyse ISR, par opposition au tropisme court-termiste de l’analyse financière, constituent probablement encore l’apport véritable actuel à l’analyse financière.