Résumé : On
distingue trois stades dans l’évolution des méthodes d’équivalence. C’est le
dernier stade qui correspond à l’apparition des méthodes autonomes, auxquelles
cet article est consacré. Nous en proposons une histoire qui va de leur
apparition en France, dans les années 1950, jusqu’à nos jours. La naissance des
méthodes autonomes, comme la méthode GP, fut une réponse aux critiques qui furent
adressées à la méthode des Sections Homogènes et aux coûts standards. A partir
de 1960, quand le direct costing
s’imposa en France, nous notons que les simplifications qu’il proposa
conduisirent à un effacement des méthodes d’équivalence. Par la suite,
l’émergence de la méthode ABC en France constitua une aubaine pour la méthode
GP qui retrouva alors une seconde
jeunesse sous le nom de méthode UVA. Depuis quelques années, des adaptations
ont été proposées à la méthode ABC, parmi elles, le TD ABC dont l’article montre
qu’il s’agit d’une méthode autonome d’équivalence. Il nous est apparu que la
signification de ces évolutions est qu’elles correspondent aux tensions de la
comptabilité de gestion entre précision et pertinence.
Mots clés : Comptabilité
de gestion, histoire contemporaine, méthodes d’équivalence.
Abstract: The
development of equivalence methods can be divided into three phases of
development. This paper concerns the last
phase, which corresponds to the emergence of autonomous methods. We propose to examine the history of these methods,
from their emergence in France
in the 1950’s, up to the present day. The
advent of autonomous methods, like the GP method, was in response to the
criticism received by the homogeneous sections method and standard costs.
From 1960, when direct costing became fashionable
in France ,
we note that the simplifications that came with it heralded the disappearance
of equivalence methods. The subsequent
arrival of the ABC method in France
was a godsend for the GP method which was given a new lease of life under the
name of the UVA method. Over recent
years, adaptations of the ABC method have been proposed, such as the TD ABC
method which this paper shows to be an autonomous equivalence method. It became clear to us that these developments went
hand in hand with the fluctuating trends in management accounting, alternating
between precision and pertinence.
Keywords: Management accounting, contemporary history, equivalence methods.
« Tout ce qui est simple
est faux, tout ce qui est compliqué est inutilisable »
Paul Valéry
Depuis sa conception, il y a quelque vingt ans, la méthode
ABC a connu diverses interprétations, de nombreuses applications, et multiples
critiques dénonçant, entre autres,sa lourdeur lors de l’implantation, puis de l’exploitation
(Anderson, 1995 ; Anderson et Young, 1999 ; Bromwich et Bhimani,
1994 ; Malmi, 1997 ; Shields, 1995). Sa modernité s’est effacée, même
si elle est régulièrement enseignée et fait à présent figure de méthode
classique. Kaplan, qui fut à l’origine de la méthode, la qualifie désormais de
« traditional ABC » (Kaplan
et Anderson, 2004, 2007). Conscient des limites opérationnelles de l’ABC, il en
a récemment proposé une nouvelle version, le Time Driven ABC (TDABC).
À quoi correspond cette évolution de l’ABC vers le
TDABC ? Cette façon de simplifier les calculs ne s’apparente-t-elle pas
aux méthodes d’équivalence qu’on rencontre parfois dans la littérature ?
Ainsi, Raulet (1982, p. 45) et Lauzel (1971, p. 131) présentent dans leurs ouvrages
de formation des méthodes fondées sur des rapports constants ou des
coefficients d’équivalence dont le principe rappelle celui du TDABC.
Auparavant, la
Confédération Nationale du Patronat Français (CNPF, 1957)
distinguait la méthode des équivalences, la méthode GP[1], des méthodes indiciaires réservant
le nom de méthodes des équivalences à des méthodes « basées sur des calculs statistiques… .permettant de ramener au cas
d’une entreprise ne produisant qu’un seul produit… ». Parallèlement,
dans les années 1960, la CEGOS[2], dans un document de formation intitulé
« Les méthodes indiciaires » regroupait différentes méthodes dont
« le principe est de répartir une
masse de frais entre un groupe d’articles fabriqués ou de sections de
reclassement sans avoir à effectuer de pointage exact … .en utilisant une unité
commune … permettant d’exprimer la totalité des articles fabriqués ».
Encore aujourd’hui, Gervais et Bouquin font référence dans leurs manuels à la
méthode UVA en attirant l’attention sur le fait qu’elle utilise des
équivalences (Bouquin, 2008, p. 176; Gervais,
2009, p. 197). De nombreuses méthodes, que l’on peut qualifier de
méthodes d’équivalence, présentent donc pour caractéristique commune la
simplification des calculs en ramenant de manière fictive les entreprises
multi-produits ou multi-activités à des entreprises ne produisant qu’un seul
produit ou qu’un nombre très restreint de familles de produits. Elles supposent
que l’on peut ramener l’ensemble de la production à un multiple d’un article étalon.
On peut préciser cette définition en distinguant trois
niveaux dans les méthodes d’équivalence selon la typologie que nous proposons
dans le tableau 1.1.
Dans une précédente communication (Levant et Zimnovitch,
2009), nous nous sommes intéressés à la période de la Seconde révolution
industrielle. Nous avons observé que les méthodes d’équivalence se positionnaient après une innovation
dont la complexité était critiquée, qu’elles permettaient d’introduire de
l’opérationnalité après des développements théoriques dont la mise en œuvre
était jugée trop lourde. Ces remarques sont-elles également applicables à la
période récente ? C’est ce que nous cherchons à savoir dans les lignes qui
suivent.
Nous avons distingué, à partir de 1950, deux périodes de
trente ans. Au cours de la première (section 1), on assiste, entre 1950 et
1960, à la naissance des méthodes autonomes d’équivalence (méthodes reposant
entièrement sur le principe des équivalences et qui se suffisent à elles-mêmes,
n’étant pas le complément d’autres méthodes), qui permettent de répondre aux
critiques faites à la méthode des sections homogènes et à celles des coûts
standards qui dominaient alors la comptabilité analytique, puis, au cours des
années 1960 et 1970, à leur effacement progressif, quand le direct costing rencontre un vrai succès.
A la manière du Phénix, les méthodes autonomes d’équivalence
vont connaître une deuxième vie : dès les années 1990, sous la forme de la
méthode UVA en France et, plus récemment, avec le TD ABC aux Etats-Unis. Cela
fera l’objet de notre seconde section (Section 2). Nous la ferons débuter dans
les années 1980, avec la critique faite outre-Atlantique aux méthodes de calcul
de coûts qui débouchera sur la méthode ABC. Nous verrons qu’un parallèle existe
entre celle-ci et la méthode des sections homogènes, notamment en terme de complexité.
Les mêmes causes entraînant les mêmes effets, cela nous permettra de comprendre
la raison de la renaissance méthodes autonomes d’équivalence.
Pour effectuer cette recherche, et observer les méthodes qui
étaient utilisées par les entreprises en France depuis 1950, nous avons utilisé
une variable proxi: la littérature professionnelle (auteurs, consultants,
organisations professionnelles) et des ouvrages d’enseignement se rapportant au
calcul des coûts. "La structuration de la
recherche pour la gestion en France ne s’est vraiment réalisée que vers la fin
des années 1970 (Bessire, Levant et Nikitin, 2009). Ce n’est donc qu’à partir
des années 1980 que se développe une littérature académique sur la comptabilité
de gestion. Auparavant, il existait qu’une littérature professionnelle écrite
par des consultants et des ouvrages d’enseignement à laquelle nous avons eu
largement eu recours pour mener notre recherche. Ces discours représentent-ils la réalité des
pratiques ? On peut, pour le moins, considérer qu’ils agissent comme des
marqueurs de l’adoption des innovations managériales en matière de calcul de
coûts, dans le cadre d’un processus de diffusion (Alcouffe, Berland et Levant,
2008)."
Tableau 1.1. – Typologie des méthodes d’équivalence
Type de méthode
|
Caractéristiques
|
Exemples
|
Les
méthodes
d’équivalence
de niveau 1 ou
méthodes
simplistes.
|
Elles
s’attachent à établir des lois de variation de certains coûts (matières
premières, main-d’œuvre, entretien, amortissements) en fonction des caractéristiques
physiques des produits fabriqués. Pour chaque article, une équivalence est
établie avec l’unité de référence (article, produit, service), dont la
pondération permettra de
calculer
le coefficient d’équivalence global du
produit
concerné.
|
Méthodes
anciennes, non nommées, encore utilisées dans les ateliers
|
Les
méthodes d’équivalence
de niveau 2.
|
Elles
permettent le regroupement de charges entre plusieurs centres' d’analyse de
coûts au moyen d’équivalences liées à l’intensité d’utilisation de ces différents
centres de regroupement
|
Méthode
des « cost number » et du « point method »[3]
Méthode
des sections homogènes et ses amendements.
Méthode
ABC et ses amendements dont la méthode TDABC.
|
Les
méthodes d’équivalence autonomes, de niveau
3.
|
Ce
sont des méthodes complexes et autonomes qui visent à obtenir les coûts de
revient des produits ou services obtenus dans des processus complexes, en
calculant des rapports d’équivalence entre ces différents processus de
production. Ces rapports d’équivalence permettent de ramener l’ensemble des
produits fabriqués à un multiple d’un élément de base et d’unifier ainsi la
production.
|
Méthode
GP/UVA.
Méthode
des points.
|
1. La
naissance des méthodes autonomes d’équivalence et leur effacement :
1950-1980
Après la Deuxième guerre mondiale, le Plan comptable (PCG) adopté
en France en 1947 aboutit à une séparation entre comptabilité générale et
analytique qui va permettre aux méthodes de comptabilité analytique de gagner
en autonomie[4]. Dans les années cinquante, à côté
de la méthode des sections homogènes, la méthode des coûts standards va se
diffuser en France, alors qu’elle avait été conçue quarante ans plus tôt
outre-Atlantique. Ce sont ces deux méthodes
qui vont occuper le devant de la scène du calcul des coûts sur la période qui
nous intéresse. Mais c’est sur les critiques de ces deux techniques que vont se
fonder les méthodes autonomes d’équivalence qui naissent alors et parviendront
à une certaine reconnaissance au cours de la décennie 1950-1960, même si leur
rôle restera de second plan (1.1). En revanche, le direct costing va rencontrer dans les années qui suivront cette
décennie un intérêt qui lui permettra de rejoindre le niveau des sections
homogènes et des standards. En contrepoint, les méthodes d’équivalence
disparaîtront quasiment (1.2).
1.1. Un rôle de second plan : 1950-1960
Ce qui domine dans les méthodes de calculs de coûts proposées
en France dans les années qui suivirent la Deuxième Guerre, c’est la continuité
avec la méthode des sections homogènes et « la levée de la quarantaine »
pour les coûts standards. C’est sur un fond de critiques qui leur seront
adressées que l’on va voir, en arrière-plan, se détacher des méthodes autonomes
d’équivalence.
1.1.1. La domination de la méthode des sections homogènes
et des standards
Au début du vingtième siècle, en
réaction à la lourdeur de la méthode des cost-centers
les ingénieurs tayloriens avaient développé des méthodes susceptibles de
satisfaire cette demande. Pour réduire le nombre de centres nécessaires à un
découpage au niveau de la machine, voire de l’établi, des mécanismes
d’équivalence furent parfois proposés dans la logique des cost numbers (Levant et Zimnovitch, 2009). La méthode française des
sections homogènes fait partie de ces tentatives.
Les sections homogènes, méthode de calcul de coûts inspiré
des travaux de Rimailho pour la CEGOS en 1927-1928, furent un modèle de
référence de la comptabilité analytique française, intégrée dans les Plans
comptable jusque dans les années 90 bien que son institutionnalisation se soit
accompagnée de son appauvrissement technique, notamment par négligence du
concept d’homogénéité.
Or l’originalité de cette méthode tient, notamment, à la
logique d’homogénéité au sein des sections de regroupement des charges indirectes,
celles-ci se différenciant d’un simple regroupement de machines qui seraient
servies par un personnel accomplissant des tâches identiques. Ce ne sont pas
des ateliers tayloriens, mais « la
réunion de ressources solidaires, non parce qu’elles sont identiques mais parce
qu’elles sont solidaires » (Bouquin, 1997a, p. 71). Cette homogénéité
permet ainsi de réduire le nombre de centres de frais et de surmonter la
critique qui était faite aux méthodes de taux horaire machine, comme celle de
Church, d’être trop difficile à mettre en œuvre, car nécessitant trop de
centres de frais[5]. En fait, le principe d’homogénéité
est celui des équivalences.
Pourtant, cette notion va progressivement s’effacer de la
méthode. Dès 1938, la CEGOS apporta certaines modifications allant dans le sens
de cet effacement. Entre autres, elle définira la « Section
Homogène » comme : « un
groupe de moyens de production tel que les opérations qu’il effectue aient une
commune mesure à laquelle ses dépenses puissent être rapportées »
(CEGOS, 1937, p. 78). Rimailho critiqua cette évolution contraire à l’esprit
initial[6], sans succès. Les plans comptable
1947 et 1957 estimeront souhaitable que les sections homogènes correspondent à
une division réelle de l’entreprise, tout en admettant qu’il n’y ait pas
toujours de correspondance. Il faudrait alors utiliser des « sections
fictives » (PCG 1947) ou « sections de calcul » (PCG 1957).
Enfin le Plan comptable 1982, le dernier plan comptable incorporant la
comptabilité analytique, découpe l’entreprise en « centres d’analyse »
correspondant à des entités fonctionnelles. Autant de dispositions qui
éloignaient la méthode de la notion d’homogénéité.
Paradoxalement, dans le même temps des voix s’élevaient pour
dénoncer la difficulté de mise en œuvre de la méthode des sections homogènes.
Aussi fut-il proposé de la coupler avec des méthodes d’équivalence afin de
réduire le nombre de sections. On en trouve trace sous le nom d’ « unité
d’œuvre complexe » (Parenteau,
1945; Parenteau et Charmont, 1952). Thorens (1954) et Bourquin (1954) proposèrent
de leur côté de calculer des rapports de coûts probables entre les produits et
donc des coefficients d’équivalence. Bloch (1962), retint comme unité d’œuvre
le temps relatif aux opérations concernant un article type avec, pour les
autres articles, un barème donnant des équivalences en unités-types qui étaient
multipliées par les fabrications du mois. Audoye (1955) proposa la méthode des
« nombres caractéristiques » qui faisait référence à une unité
d’œuvre équivalente valable pour toutes les activités de l’entreprise.
De telles méthodes furent ainsi proposées par des syndicats
professionnels jusque dans les années 1970 : Chambre syndicale nationale
des fabricants de confiserie (1960), Association internationale de la teinture
textile (1967), Syndicat national du caoutchouc, des plastiques et des
industries qui s’y rattachent (1972). Parallèlement, pendant toute cette
période, on trouve encore trace dans la littérature destinée à l’enseignement
des références à des méthodes d’équivalence de premier niveau (voir entre
autres : Martin, 1948).
La méthode des coûts standards fut, elle, mise au point
outre-Atlantique par les ingénieurs tayloriens autour des années 1910, au
moment où le modèle fordiste était inventé. Bien que connue en France dès cette
époque, elle ne s’y diffusa pourtant pas avant les années cinquante. L’une des
raisons est à chercher du côté de l’opposition des comptables à leur égard. Ils
y voyaient l’intrusion d’une valeur extra-comptable, extérieure à la comptabilité
industrielle qu’ils s’efforçaient d’implanter dans les entreprises en vue de
calculer le « prix de revient réel ». À une période (le début du 20e
siècle), où les comptables luttaient pour acquérir une légitimité
professionnelle, cette méthode était d’autant moins la bienvenue qu’elle
nécessitait l’appui des ingénieurs vis-à-vis desquels ils cherchaient à
s’imposer. Quarante ans plus tard, cet obstacle sera levé. La « mise en
quarantaine » des coûts standards par les comptables cesse avec la reconnaissance
par les pouvoirs publics, en 1945, de l’Ordre des experts-comptables français. Peu
après, en 1947, on observe en effet que le Plan comptable desserre l’emprise de
la technique de la partie double sur le calcul des coûts. L’inventaire
permanent, contraire à l’esprit des standards, qui introduit une donnée
extra-comptable, n’est plus obligatoire. A compter du PCG 1947 la séparation
entre comptabilité générale et comptabilité analytique devient la règle, ce qui
mit fin au modèle de comptabilité moniste
(Richard, 1980). Il n’était donc plus nécessaire de faire référence à une
quelconque méthode de calcul des coûts. Un inventaire annuel physique associé à
une valorisation des stocks selon une méthode librement choisie suffisait
Par ailleurs, dans la lignée du Plan Marshall, des missions
de productivité vont se dérouler dans les années 1950 pour permettre aux
Européens, aux Français, de découvrir les méthodes américaines de gestion. En
matière de calcul de coûts, les missionnaires vont en tirer le sentiment
que : « Si les Français s’efforcent de calculer des prix de revient
exacts, les Américains s’attachent avant tout à définir les responsabilités et
à mesurer les variations des charges et des rendements par rapport à des
prévisions, des normes […]. Au demeurant, les solutions pour atteindre le
résultat recherché paraissent ne guère importer aux Américains pragmatiques, recourant
indifféremment aux techniques d’enregistrement et de mesure comptables ou extra-comptables
les plus variées » (Fain, 1951, p. 124).
On notera que cette prise de distance à l’égard de techniques
étroitement comptables ne pouvait qu’être profitable aux méthodes d’équivalence
et que l’utilisation et la maîtrise des standards qui s’annonçaient dans
l’organisation des ateliers ne pouvaient que faciliter la détermination des
rapports d’équivalence (Chatzis, 1999).
1.1.2. L’apparition de
méthodes autonomes d’équivalence
Même si les méthodes d’équivalence simplistes continueront
d’être diffusées, comme le montre un document du CNPF en 1957 (CNPF, 1957), les
années 1950 vont voir la naissance de méthodes autonomes d’équivalence. Deux de ces méthodes nous sont parvenues : l’une, la
méthode des points, n’a pas de paternité reconnue, l’autre, la méthode GP, est
signée par les initiales de son inventeur : Georges Perrin. Au-delà du
rôle des individus dans cette innovation sur les méthodes d’équivalence, les
raisons sont à rapprocher de la situation économique française qui connaît sur
cette période une très forte croissance, un souci d’organisation, de gestion
rationnelle (c’est l’ardente obligation du Plan) et une volonté de faire entrer
le pays dans l’ère du management. Autant de facteurs qui sont favorables à
l’innovation en matière de calcul de coûts (Boulat, 2008). De plus, les méthodes
des sections homogènes et des coûts standards étaient fort critiquées : la
première pour son coût et sa lourdeur, la seconde pour son inadaptation en
période d’inflation galopante (suite à la guerre de Corée, le prix des matières
premières importées en 1951 fut multiplié par 2,5 et celui des produits
industriels augmenta de plus de 70 %).
La méthode des points fut présentée lors d’une série de conférences données dans le
cadre de cycles de formation, en 1951 puis en 1952, au CNAM[7] de Paris par Thibert et Martin (Thibert, 1951-1952)[8]. On en
retrouve également une présentation dans une publication de Laugier datée de
1957[9]. Cette méthode utilise des rapports
constants et utilise une analyse au niveau des postes de travail. La division
de travail observée est donc plus fine que la section de fabrication ;
« La section
homogène apparaît donc non plus comme une création plus ou moins fictive
destinée à permettre le calcul des prix de revient. C’est une réalité
technique, c’est le poste de travail ou le groupe de postes travaillant en
liaison absolue et d’une façon absolument continue ? C’est la section
strictement homogène » Thibert (1951-1952, p. 20)
La méthode est appliquée tant aux matières premières et aux
salaires, qu’aux charges charges indirectes (énergie, entretien,…) de
production. Le point s’y présente, comme unité de mesure de faits techniques
identiques et sert à hiérarchiser les coûts unitaires (ou chacun des faits
élémentaires compris dans un ensemble de faits identiques). En ce qui concerne
les charges indirectes de production, on donne au coût du poste de travail le
moins élevé une valeur en points (100 par exemple) et on affecte à tous les
coûts des autres postes de travail des coefficients calculés à partir de cette
base. Lorsque les temps-machines de fabrication sont connus avec précision, ils
peuvent être retenus comme base de calcul, l’heure de fabrication du poste de
travail étalon est assimilée à un Point de Frais (PF). Le coût du PF est obtenu
en divisant le montant des charges
indirectes de production par le nombre total de points. Connaissant le nombre
de points affecté à une production donnée, calculer le coût de cette fabrication
est donc égal au coût du point multiplié par le nombre de PF consommés par la
fabrication. Le travail de répartition comptable a été remplacé par le pointage
des temps-machines en atelier.
Pour les matières, soit on rapporte tout à un étalon (kilo de
matière d’un produit donné), soit on utilise un coefficient de conversion (nomenclature
chiffrée en prix réels / nomenclature chiffrée en prix standard si les matières
entrant dans la même commande n’appartiennent pas à la même famille technique).
Il est utilisé une technique analogue basée sur les temps d’usinage ou gammes
d’opérations pour les salaires directs.
Au coût de production ainsi déterminé s’ajoutent notamment
les frais budgétés généraux ramenés à un coût horaire budgété. La stabilité de
cette méthode repose sur le principe de stabilité des rapports constants.
La méthode GP est l’œuvre de Georges
Perrin. Au lieu de rechercher la meilleure ventilation possible et de
considérer que les frais totaux de l’entreprise sont les seuls à pouvoir être
calculés sans ambiguïté, il déplace le problème en modélisant l’entreprise pour
en faire une entité mono-productrice. Cette unification se fait en déterminant
« l’effort de production »
qui représente tous les efforts directs et indirects de production nécessaires
à la fabrication. Cette notion est homogène car, quels que soient les produits
fabriqués, et quels que soient leurs modes de fabrication, l’unité choisie pour
mesurer l’effort de production est le GP. La validité de la méthode repose sur
le principe des « constantes occultes ».
Quelles que soient les variations des prix unitaires, les consommations
résultant des diverses opérations élémentaires restent, entre elles, dans des
rapports constants dans le temps. Son choix est arbitraire, conventionnel, car
sans incidence sur le calcul des coûts. Il peut correspondre soit à une machine
particulière, soit à une pièce déterminée qui sera dénommée « article de
base ».
Chaque opération de travail se voit affecter sa constante
horaire en GP. On peut calculer le nombre de GP nécessaires à la fabrication de
chaque article, si les temps de travail de chaque opération sont connus. Le
temps nécessaire n’est pas le temps réellement passé mais le temps alloué. Ce
dernier temps permet d’éliminer les aléas de fabrication qui sont rejetés dans
les frais généraux. Il n’est plus question qu’une pièce malchanceuse supporte
les frais d’un incident de fabrication qui aurait pu se produire aussi bien
lors de la fabrication d’une autre pièce ; la logique est que les
incidents de fabrication sont inévitables, qu’ils sont des charges de
l’entreprise et que toutes les fabrications doivent en supporter leurs parts.
Le nombre de GP revenant à chaque article est dénommé
« l’équivalent » dudit article. Toute la production d’une usine peut
être évaluée en GP pendant une période donnée. Ensuite, il peut être calculé le
coût de revient du GP au cours d’une période qui est égal au quotient des frais
et charges[10] de l’entreprise, hors matières
premières et frais commerciaux, par le nombre de GP produits au cours de la
même période. Le coût de revient d’un article est égal au nombre de GP qu’il a
nécessité pour sa production multiplié par le coût du GP. Les frais
commerciaux, à l’origine, sont ventilés sur les produits soit par des clés de
répartition soit traités comme des
charges directes. En effet, la méthode GP est fortement axée sur la production,
compte tenu de l’expérience professionnelle de son concepteur et de la relative
faiblesse des frais commerciaux à l’époque où elle a été conçue.
La méthode fut diffusée par le cabinet que créa Georges
Perrin en 1945. De nombreux articles la concernant furent publiés dans diverses
revues professionnelles, d’abord par lui-même, jusqu’à son décès en 1958, puis
par son épouse Suzanne qui assura avec les éditions Dunod la publication en
1962 de l’ouvrage posthume de Georges Perrin « Prix de revient et contrôle
de gestion par la méthode GP » (Perrin, 1962). Toutefois, la méthode GP ne
connut qu’un succès limité. Environ 150 applications « GP » furent
réalisées en France, dont 60 du vivant de son concepteur. Signalons néanmoins
que des applications furent aussi réalisées à l’international : en
Angleterre, en Belgique, au Brésil, en Italie, au Maroc, en RFA, en Suisse et
aux États-Unis.
1.2. Le refoulement des charges
indirectes : 1960-1980
C’est après les hausses de salaires de 1936, dans un contexte
économique de crise que l’intérêt pour l’allocation des « frais
généraux », comme il était dit alors, a suscité l’intérêt des responsables
d’entreprise pour la méthode des sections homogènes. Il semble, en revanche que
dans la période de forte croissance que connaît la France dans les années 1960,
le souci de maîtriser les charges indirectes ne soit plus prioritaire pour les
managers qui se préoccupent d’abaissement du coût de revient par le volume et
d’accroissement de marge bénéficaire. Le direct
costing leur donne, de ce point de vue, toute satisfaction. Celui-ci ayant
de surcroît l’avantage d’une simplicité extrême, voilà les méthodes
d’équivalence battues sur le terrain même qui leur avait valu une certaine
reconnaissance au cours de la période précédente.
1.2.1. Le succès du direct costing : 1960-1980
Le raisonnement séparant les coûts fixes et les coûts
variables en fonction du volume d’activité accompagne les premiers ouvrages
français de comptabilité industrielle au 19e siècle, encore que la
distinction entre, d’une part, frais directs et frais variables, et, d’autre
part, frais généraux et frais fixes, n’y soit pas clairement établie.
Dès lors, pourquoi ce nom de direct costing ?
Il apparaît pour la première fois en 1951 sous la plume d’un
contrôleur de gestion américain, Waldo Neikirk, dans la revue National Association of Cost Accountant
(NACA). En vérité, comme en France, la séparation charges fixes et charges
variables était connue et appliquée depuis fort longtemps aux Etats-Unis, avec
le graphique du point mort (break even
chart). Plusieurs ingénieurs (Hess, Knoeppel, Rautenstrauch), dans les
années 1920 peuvent s’en voir attribuer la paternité. Plus encore, l’histoire
du direct costing fait remonter à un
article de 1936 la présentation achevée de son principe (Weber, 1966). Il est
vrai que durant les quinze années qui séparent cet article de celui de Neikirk,
(1951), le raisonnement qui conduit à faire abstraction des frais fixes n’était
pas dans l’air du temps. D’abord, la politique lancée par Roosevelt dans le
cadre du New Deal visait à promouvoir, via les syndicats professionnels, les
méthodes de calcul de prix complet pour lutter contre la déflation. Puis, avec
l’entrée en guerre de l’Amérique en 1941, de nombreux prix furent fixés par
l’Administration selon la méthode du cost
plus qui inclut tous les coûts.
En revanche, dans les années 1950, le direct costing connut un véritable engouement aux Etats-Unis.
Rappelons que c’est au cours de cette période que des « missions de
productivité » permirent à des Français d’étudier les méthodes américaines
de management qui les rendirent enthousiastes pour les coûts standards. À la
différence de ceux-ci, le direct costing
ne mit pas quarante ans pour être connu, sa diffusion se fit en quelques
années. Certes, en 1952, Parenteau, directeur de la CEGOS, y[11] fait une allusion péjorative, le
qualifiant de « méthode commerciale appelée dumping » (Parenteau et Charmont, 1952, p. 30). Mais lorsqu’en
1954, Lauzel utilise le premier l’expression américaine devant la Fédération
des compagnies de chefs de comptabilité, les termes se sont adoucis et la
diffusion suivra rapidement, selon la chronologie suivante :
1955 : premier article dans une revue
professionnelle ;
1956 : une étude de fond est lancée sous l’égide du
Conseil supérieur de la comptabilité ;
1958 : un ouvrage est publié pour présenter
spécifiquement la technique ;
1959 : le Centre de perfectionnement aux affaires (CPA)[12] présente un cas (tiré de
Saint-Gobain et Renault) dans lequel est abordé le direct costing ;
1961 : la méthode fait l’objet d’un sujet d’examen pour
l’obtention du brevet professionnel comptable.
Il n’est pas question ici de présenter les différents
avantages et inconvénients de cette méthode par rapport à d’autres. Ce qu’on
peut relever pour notre propos c’est la coïncidence entre la phase de forte
croissance économique de la période et le recours à cette approche qui permet
de relier aisément le coût, le volume d’activité et les profits, alors qu’en
situation de tension, ce sont davantage les méthodes de coût complet qui sont
convoquées pour détecter les affaires non rentables ou ajuster les prix sans
détériorer le marché. Deux autres avantages évidents du direct costing sont sa simplicité de mise en œuvre et sa
présentation facilitée pour les managers, puisque les frais généraux fixes
disparaissent, sans parler des complications que posait l’imputation rationnelle
quand elle était utilisée.
Début des années 1950, nous avons vu que les méthodes
d’équivalence avaient profité de la lourdeur des sections homogènes et du
climat inflationniste de la guerre de Corée qui rendait l’introduction des
standards moins opérante. Dix ans plus tard, la simplification apportée par les
équivalents pèse de peu de poids par rapport à celle que propose le direct costing. Certes ceux-ci, en théorie,
n’éliminent que les frais fixes, pas les frais indirects qui sont la cible des
méthodes autonomes d’équivalence ; mais, dans la pratique, l’intersection
entre les deux est grande, surtout il y a un demi-siècle. Baignés dans une
atmosphère d’expansion, les managers sont moins soucieux du contrôle des frais
indirects. À partir des années 1960, l’époque est à la découverte du contrôle
de gestion et le direct costing
prétend justement donner une représentation des coûts sur lesquels les
gestionnaires peuvent avoir prise : les frais variables, leur influence
sur les frais fixes étant jugée mineure. Le direct
costing rejoint la méthode des sections homogènes et des coûts standards
comme méthode dominant le champ de la comptabilité analytique et tend à
éclipser la méthode GP.
1.2.2. La survie de la
méthode GP dans les années 1970
Suzanne Perrin avait tenté de continuer l’œuvre de son mari,
notamment par une activité de publication entre 1959 et 1977 sous son nom (Perrin
S, 1959, 1976a, 1976b, 1977, et plusieurs articles dans L’Usine Nouvelle entre
1961 et 1967) ou sous le pseudonyme de Xavier Serrières (Serrières, 1969). Mais
devant les difficultés que rencontra son cabinet de conseil « La Méthode
GP » dans les années 1960, elle finit par confier la diffusion de la
méthode à d’autres consultants : l’Institut d’Études et de Mesure de Productivité
(IEMP) en 1969, puis, en 1971, le cabinet Maynard France. À partir de 1975, la
commercialisation fut assurée par le cabinet de consultants « Les
Ingénieurs Associés » (LIA) que Jean Fiévez, un ingénieur de l’école des Arts
et Métiers, avait repris en 1973. Il avait eu l’occasion de connaître la
méthode GP en travaillant chez le cabinet « Maynard »rance" qui
l’avait envoyé en 1972 dans une filiale du groupe Dollfus Mieg et Compagnie pour
faire une actualisation des coefficients GP. Dans l’accord qui fut signé avec le
cabinet LIA en 1975, le cabinet s’engageait à ne pas apporter de modifications à
la méthode sans l’accord de Suzanne Perrin. Après deux ans de collaboration,
Suzanne Perrin décidait en 1977 de ne pas renouveler l’accord. Néanmoins,
conformément au contrat, le cabinet LIA pouvait continuer à exploiter une
méthode similaire à condition d’en changer le nom, ce qu’il fera sous le nom de
méthode UP (méthode des unités de production). Dans les années qui suivirent,
la méthode UP fut mise en place dans quelques PMI, notamment avec le concours
de l’ingénieur Robert Zaya qui avait rejoint son camarade de promotion de
l’école des Arts et Métiers au cabinet LIA. À part cela, la méthode GP tomba
quasiment dans l’oubli dans les années 1970-1980, même si on la trouve encore
citée dans les cinq éditions de l’ouvrage de Lauzel entre 1971 et 1988 et dans
quelques manuels francophones (Baranger et Mouton, 1997 ; Burlaud et
Simon, 1997). Deux cas du CPA, l’un en 1958, l’autre en 1960, l’ont évoquée.
Elle continua néanmoins à se développer au Brésil, diffusée initialement par
des membres de la belle-famille de Perrin : les Lage.
2 Le retour des méthodes d’équivalence
dans les « bagages » de l’ABC : 1980-2010
Dans la deuxième partie nous présenterons le renouveau de la
méthode française, l’UVA, concurrente de la méthode ABC, en tant que substitut
des méthodes classiques dont les sections homogènes sont le principal représentant
et deux méthodes venues des Etats-Unis ; l’ABC largement ‘acclimatée’ en
France et son substitut, le TDABC, qui commence à se faire connaître dans la
recherche universitaire, peut être la première étape de sa diffusion en France.
Née aux Etats-Unis dans les années 1980, la méthode ABC va être importée
rapidement en France ; elle fournira l’opportunité d’une
« restauration » des méthodes autonomes d’équivalence. Si l’on
affirme que les méthodes par équivalence sont réapparues dans les « bagages »
de l’ABC (2.3), par retour il faut entendre, tant l’intérêt pour les charges
indirectes, que celui pour les équivalences. Ces intérêts découlent, une fois
de plus, de tentatives de résolution des problèmes d’imputation des charges
indirectes, comme nous le verrons. Mais au préalable, il convient de comprendre
le contexte des années 1980 (2.1) et de s’interroger sur le positionnement de
l’ABC par rapport aux méthodes d’équivalence (2.2).
2.1. Une nouvelle révolution industrielle
À la fin des années 1970, les États-Unis traversèrent une
crise politique, morale et économique. Le modèle fordiste marquait un déclin au
profit du toyotisme de l’industrie japonaise. La création de valeur pour le
client et l’actionnaire était mise en avant et une critique des méthodes de calcul
des coûts utilisées par le management américain allait se développer. Il fut
avancé que la crise de l’industrie américaine venait de la négligence des
managers à suivre les charges indirectes ; mal dépensées, elles grèveraient
le coût de revient par rapport aux produits nippons, alors que, bien gérées,
elles constitueraient le facteur clé de succès des entreprises modernes (Miller
et Vollmann, 1985).
Une réflexion sur l’histoire de la comptabilité fit
apparaître que les méthodes de calcul utilisées aux États-Unis avaient été
forgées au début 20e siècle, dans un environnement taylorien qui
cherchait à diminuer les frais de main-d’œuvre directe prédominant dans la
structure des coûts de revient. Les charges indirectes étant réparties
arbitrairement dans le seul but de retomber sur les montants globaux de la
comptabilité financière (Johnson et Kaplan, 1987). Pour redonner leur
pertinence aux coûts, une nouvelle approche, l’Activity Based Costing (ABC), va être proposée par Kaplan, Johnson
et Cooper en association avec un groupe de professionnels et
d’industriels : le Computer Aided Manufacturing-International
(CAM-I).
Le principe de cette méthode est connu. Il s’agit de tenir
compte logiquement du processus de consommation des ressources, en éliminant
celles qui ne contribuent pas aux activités créatrices de valeur et en mettant
en évidence le coût de celles qui en génèrent. Pour ce faire, il est demandé de
renoncer à la vision fonctionnelle de la firme pour adopter une perspective
transversale.
L’ABC ne tardera pas à être introduit en France dans les
années 1990, sous l’impulsion de Mévellec, Évraert, Lebas et Lorino, en association
avec des groupes de recherche tels ECOSIP et le CEREDE que l’Ordre des experts
comptables avait lancé pour améliorer les systèmes de contrôle de gestion des
entreprises (Alcouffe, 2004).
2.2. L’ABC, une méthode d’équivalence ?
Après avoir présenté les points de parenté de l’ABC avec la
méthode des sections homogènes, nous établirons en quoi elle peut être considérée
également comme une méthode reposant sur les équivalences.
2.2.1. L’ABC : une parenté avec la méthode des sections
homogènes ?
Selon les concepteurs de l’ABC, dans un système traditionnel
de calcul de coûts, les charges indirectes sont affectées dans des centres de coûts,
puis réparties entre les produits en utilisant des coefficients arbitraires. Au
contraire, la logique de l’ABC veut que les activités consomment des ressources
au niveau des process et que les produits consomment des activités en fonction
de l’utilisation des inducteurs de coûts.
Selon les tenants de l’ABC, une activité doit être distinguée
d’un centre de coûts « classique » qui serait bien souvent
associé à une fonction ou un département de l’entreprise, et il ne faut pas
confondre un inducteur de coûts[13] avec une simple imputation des
charges indirectes (Cooper, 1987, p. 49). Si une unité d’œuvre correspond à une
simple corrélation, un inducteur de coûts doit être corrélé aux charges de
l’activité mais correspondre aussi au facteur de déclenchement (à la cause
profonde), du coût, sinon il échouerait dans sa mission explicative (Bouquin,
1997b, p 144 ; Gervais, 1997, p. 177) ; de plus, le principe
d’homogénéité doit être respecté au niveau de l’activité :
« Plutôt que
d’affecter les charges à des centres de coûts, cette méthode décompose les
frais généraux en centres de coûts homogènes de telle façon que n’importe quel centre
puisse être expliqué par un inducteur particulier » (Johnson et Kaplan, 1987, p. 238).
Si l’on revient aux sources de la méthode des sections
homogènes et aux écrits de Rimailho pour la détermination des sections homogènes
et le choix de l’unité d’œuvre, l’ABC n’a pas d’originalité, la méthode des sections
homogènes telle que la décrit Rimailho est très proche de ce qu’est une activité :
« Il n’est donc
pas exagéré d’affirmer que, sur le plan technique… ce que Rimailho a pratiqué
et conceptualisé, ce n’est pas tant la méthode des sections homogènes que la
méthode ABC » (Bouquin, 1995b, p. 12),
« Nous découvrons
que ce modèle de comptabilité existait sous différentes formes avant même qu’on
l’identifie par ce nom dans les livres. La méthode des sections homogènes en
France ressemble à première vue à un système de coût de revient par activités »
(Boisvert, 1993, p.12)
L’ABC peut être considéré comme une réinvention américaine de
la méthode des sections homogènes, ses qualités techniques n’étant pas
supérieures. Certains partisans de l’ABC ont même admis qu’utilisés
« correctement » l’ABC et la méthode des sections homogènes donnaient
les mêmes résultats en termes de calcul, même si selon Lebas (1994a), l’ABC ne
se réduit pas à une méthode de coûts.
Alcouffe et Malleret (2004) montrent par ailleurs qu’i existe
des divergences quant aux « fondements conceptuels » de l’ABC et à
son opérationnalisation dans un contexte français. Mévellec (2005, p.192)
observe lui aussi des modèles à base d’activités très hétérogènes. Les principales
différences concernent la constitution des activités et l’agrégation de
celles-ci.
2.2.2. L’ABC une méthode reposant sur des
équivalences ?
En tant que méthode de calcul des coûts, la proximité
conceptuelle de la méthode ABC et de celle des sections homogènes et des
méthodes d’équivalence de 2e niveau est patente. Les activités sont
des centres de regroupement de ressources qui doivent être homogènes et les inducteurs
de coûts jouent le rôle d’unité d’équivalence, tout comme les unités d’œuvre
(cf. supra).
Le système ABC a été conçu pour réduire les erreurs de
spécification souvent observées lors de la construction de modèles d’évaluation
de coûts complets (ces erreurs apparaissent lors de l’utilisation d’indicateurs
volumiques de coûts, si dans la réalité, les coûts sont générés par des
activités non volumiques), mais l’ABC a également été conçu pour réduire les erreurs
d’homogénéité (Datar et Gupta, 1994). Il cherche à ventiler les ressources de
manière très fine, de façon à ce que les objets de coûts aient une gamme
opératoire identique ou restant dans les mêmes proportions que celle
implicitement incluse dans le coût de l’inducteur (Thomas et Gervais, 2008, p.
143). La méthode ABC a dû faire face au même écueil que celui auquel avaient
été confrontées les méthodes du « taux horaire machine » des
ingénieurs américains et les sections homogènes de Rimailho/CEGOS : la
multiplication des centres de regroupement des charges. Ainsi, lorsque les
activités deviennent plus complexes, le modèle ABC nécessite que les activités
soient éclatées en unités d’analyse plus petites et plus fines. « Plus le nombre d’inducteurs augmente,
plus la précision de la répartition des coûts croît » (Cooper, 1989, p.
35).
Cependant, en dehors de conditions très restrictives
assurant que la méthode ABC fournisse des coûts pertinents (Noreen, 1991), il
n’est pas certain que la seule multiplication du nombre d’activités résolve les
problèmes d’agrégation (Datar et Gupta, 1994). Il serait même possible qu’un
système avec moins d’inducteurs soit moins coûteux et plus facile à comprendre,
donc plus opérationnel (Merchant et Shields, 1993). De plus, cet éclatement
laisse de côté les erreurs de mesure (Datar et Gupta, 1994), a un coût très élevé et est confronté
à des limites technologiques. Kaplan et Anderson (2003, 2004) ont observé que,
parallèlement à l’augmentation du besoin en information dû à celui de plus de
précision ou à l’extension du modèle à toute l’entreprise, il y a une escalade
exponentielle en besoins informatiques, afin de stocker et d’exploiter les
données. Ces problèmes, associés à des coûts de mise en place et de maintenance
élevés, ont entraîné de nombreuses difficultés dans la mise en œuvre de l’ABC
fréquemment soulignées (Anderson, 1995 ; Kaplan et Anderson,
2007/2008 ; Malmi, 1997 ; Gosselin, 1997). Cela a conduit soit à son
abandon, soit à des dérives.
Pour faire face à ces difficultés, il a été proposé dès
l’origine de regrouper les centres en regroupant les activités ayant les mêmes
inducteurs de coûts (Mévellec, 1995), ce qui se conçoit tout à fait tant que
l’homogénéité subsiste (Bouquin, 2006 ; Gervais, 2009) mais ce point fut
souvent négligé pour des raisons économiques :
« Le système ABC
est plus précis que les traditionnels modèles volumiques de coûts, car il
utilise de multiples inducteurs (au lieu d’un ou deux) pour modéliser le coût
des activités de production dans un process et mesurer la consommation de
ressources par les produits consommant ces activités. Malheureusement, le
nombre d’activités est tellement important dans un process normal qu’il est
économiquement impossible d’utiliser un inducteur différent pour chaque
activité. Au lieu de cela, beaucoup d’activités doivent être regroupées, ce qui
permet d’utiliser un seul inducteur pour suivre à la trace les coûts des
activités vers les produits » (Cooper, 1989, p. 34).
Il y a là une confusion de l’effet avec la cause qui met en
péril l’homogénéité. On retrouve les avertissements faits par Rimailho quand il
dénonçait les simplifications hâtives que préconisait la CEGOS (cf supra).
Comme pour la méthode des sections homogènes, il a été
proposé d’opérationnaliser l’ABC en recourant à des méthodes d’équivalence
simples en complément. Innes et Mitchell (1995, p. 121) proposent, par exemple,
de regrouper des activités en utilisant des équivalences au niveau des inducteurs :
« Supposons que les achats soient un centre
d’activité, que les ordres d’achats soient à la fois nationaux et étrangers et
que les commandes étrangères impliquent beaucoup plus de travail administratif.
Plutôt que de séparer le centre d’achats en deux parties, (achats nationaux et
étrangers) et avoir deux inducteurs (un pour les commandes nationales et un
pour les commandes étrangères), il serait plus aisé de simplement conserver un
seul centre d’achats et de pondérer les commandes étrangères par rapport aux
commandes nationales. Ainsi, à partir de l’évaluation du travail requis pour
effectuer les commandes respectives, il pourrait être décidé que les commandes
à l’étranger soient pondérées d’un coefficient de 1,5, avant de déterminer le
volume total pondéré de l’inducteur à utiliser dans le calcul »
Parallèlement, Thomas et Gervais (2008) utilisent l’analyse
en composantes principales pour définir des regroupements respectant une homogénéité
acceptable.
En France, en raison des inconvénients évoqués, la méthode
ABC s’est relativement peu développée. Une enquête d’Alcouffe (2002) donne un
taux de diffusion dans la grande entreprise d’un peu moins de 20 %. Bescos, Cauvin et Gosselin,(2002) trouvant
quant à eux un taux d’adoption de 27% dans des entreprises de tailles
simimlaires. Les autres entreprises qui ont recours à une méthode de
comptabilité de gestion continuent généralement à en utiliser une dérivée des
sections homogènes. Parallèlement la méthode GP a connu un regain d’intérêt et
le TDABC est apparu.
2.3. L’évolution des méthodes d’équivalence
avec l’ABC
Quel est le contenu novateur de la méthode ABC ? La
question fut posée dès son apparition. Sa proximité avec les sections homogènes
fut établie. On peut considérer que l’ABC n’est qu’une méthode des sections homogènes
« relookée ». Nous allons voir que l’UVA et le TDABC ne sont également
que des méthodes d’équivalence « relookées ». L’UVA peut être
considéré comme un concurrent de l’ABC en tant que substitut à la méthode des
sections homogènes. Quant au TDABC, il est présenté par Kaplan initiateur de
l’ABC comme un substitut à cette méthode pour remédier à sa complexité.
2.3.1. La
renaissance de la méthode GP au travers de la méthode UVA : l’aubaine de
l’ABC pour la méthode GP
La remise en cause des méthodes traditionnelles de
comptabilité analytique, l’intérêt renouvelé pour un calcul de coût complet,
avec analyse des charges indirectes et réflexion sur leur imputation raisonnée,
constituèrent dans les années 1990 une aubaine pour la méthode GP.
Au début des années 1990, le chiffre d’affaires du cabinet
LIA généré par l’implantation et la maintenance de méthodes de calcul de coûts
était accessoire, mais l’activité principale que constituait le calcul des
temps connaissait une baisse sensible, en raison de la substitution de la
machine à l’homme et de l’automatisation du fonctionnement même des ateliers
(Chatzis, 1999). La crise économique de 1991 entraîna une restructuration du
cabinet. Pour relancer son activité de conseil, Jean Fiévez participa alors à
différents groupes de réflexion français consacrés à la comptabilité de gestion
(AFGI, CEREDE, ECOSIP). Il actualisa les concepts de la méthode GP au
vocabulaire du moment et approfondit la prise en compte des services rendus au
client, de manière à ce que la méthode devienne une alternative à l’ABC. Suivra
une succession d’articles de présentation de la méthode rédigés par Fiévez et
la décision de publier un ouvrage en collaboration avec Jean-Pierre Kieffer et
Robert Zaya (Fiévez et alii, 1999).
Auparavant déjà, le champ d’application de la méthode s’était
élargi. Quelques applications avaient amené Jean Fiévez à ne plus s’intéresser
uniquement aux coûts de fabrication. Notamment, en 1987-1988, une mission
s’était déroulée dans la filiale d’un groupe suisse, la société Koenig, qui
avait une division transport. Une autre mission avait été effectuée chez Dassault-Falcon-Service
dont l’activité était la gestion des pièces de rechange. La méthode UP avait
évolué et était passée de la seule analyse des charges de production à
l’analyse de la quasi-totalité des charges de l’entreprise. Egalement les
diffuseurs de la méthode orientèrent l’utilisation de celle-ci vers l’analyse
par facture permettant d’établir une « courbe de rentabilité » des
ventes. Le résultat de chaque facture est rapporté à son montant pour en
déterminer la « rentabilité ». En classant les factures par
rentabilité croissante on obtient une courbe de rentabilité des ventes qui met
en évidence deux extrêmes : des ventes dangereusement bénéficiaires (en
l’absence de barrières à la sortie les clients peuvent trouver d’autres
fournisseurs pratiquant des prix beaucoup bas) et des ventes dites
hémorragiques qui pénalisent très lourdement le résultat d’exploitation. Entre
ces deux extrêmes, il y a des ventes déficitaires souvent dues à des services-clients
trop onéreux (il convient de maintenir la valeur du service, tout en en
réduisant le coût) et des ventes bénéficiaires à développer. En avril 1995,
afin de briser l’ancienne référence à la notion unique de production, le nom de
la méthode changea et se transforma en méthode UVA (Unité de Valeur Ajoutée).
Plus récemment, en 2007, un logiciel spécialisé a été mis au point pour
automatiser les calculs et exploiter les résultats (Profit Zoom qui a succédé à Profit
Scanner, lui-même créé en 2003). Sa fonction première est de calculer le
résultat de chaque transaction commerciale de l’entreprise afin de déterminer
une courbe de rentabilité des ventes par produit, par client, par commande.
Pour faire cela, il va récupérer les données liées aux factures, aux clients,
aux produits, aux livraisons qui existent déjà dans le système d’information de
l’entreprise, et il y ajoute les résultats des descriptions des gammes
opératoires obtenus grâce à l’analyse UVA. Cet outil vient en complément du
système d’information existant (de type ERP), mais ne le remplace pas. Afin de
mieux diffuser cette nouvelle appellation, cinq partenariats furent signés avec
des cabinets de consultants (Clermont-Ferrand, Région Parisienne,
Champagne-Ardennes, Tours, Nantes). Une association fut créée le 28 mars 1998
pour améliorer et promouvoir la méthode UVA créant les qualifications
d’enseignement théorique, d’application pratique et d’expert. Des présentations
de la méthode furent effectuées dans des grandes écoles de management françaises
(ESCP-EAP, ESC Lille...) et dans des universités telles Paris-Dauphine ou
Rennes 1. Des protocoles d’accord ont également été signés avec des consultants
opérant au Portugal et en Pologne. À ce jour, environ une dizaine
d’applications GP, 27 applications UP et 25 applications UVA ont été
officiellement mises en place en France par le cabinet LIA ou les cabinets avec
lesquels il est en partenariat (cf supra). Cela peut sembler peu, mais il faut
intégrer que d’autres applications ont été réalisées en dehors de ces cabinets.
Parallèlement d’autres méthodes utilisant les équivalences ont été proposées en
France mais sans réélle diffusion, telle la méthode de la Valeur Ajoutée Directe
(VAD).
2.3.2 Une
nouvelle méthode reposant sur les équivalences :
la méthode TDABC
Kaplan lui-même conçut et développa le terme pour répondre
aux critiques de l’ABC et à son échec relatif. Dès 1998, Kaplan et Cooper
(1998, p.292-296) présentèrent une amélioration de la mise en œuvre de l’ABC.
Comme 40 ans plus tôt avec la méthode d’équivalence que proposa Bloch pour les sections
homogènes (1962), les auteurs décidèrent de réduire le nombre des activités par
une méthode d’équivalence. Cette idée évolue ensuite avec Kaplan et Anderson dans
un papier de recherche présenté à la First
Summit on Time-Driven ABC à Bruxelles en 2003 et dans l’article publié dans
la Harvard Business Review en 2004.
D’une simple modalité de regroupement d’activités, on est passé à la
présentation d’une méthode à part entière.
Depuis novembre 2004, cette méthode a été officiellement
baptisée par Kaplan et Anderson Time-Driven
Activity-Based Costing (TDABC). Ils désignent désormais les versions antérieures
du modèle ABC sous les vocables de Rate-Based
ABC (2003), de Traditional ABC (2004) ou de Conventional
ABC (2007/2008). Dans leur ouvrage publié en 2007, le TDABC est présenté
comme une nouvelle méthode. Les auteurs nient toute parenté avec une quelconque
reprise de pratiques existant dans l’utilisation de la méthode ABC. Un
paragraphe intitulé « Time-Driven
ABC: Old Wine (Duration Drivers) in New Bottles ?» (Kaplan et Anderson, 2007/2008, p.
17-18) est même consacré à refuser toute paternité à l’ABC dans l’utilisation des
inducteurs de temps. Toutefois le titre de la traduction française est pourtant
« TDABC : la méthode ABC pilotée par le temps ».
En fait, le TDABC ne remet pas en cause le modèle fondateur
de l’ABC (Levant et de la Villarmois, 2007) : les ressources sont
consommées par les activités elles-mêmes consommées par les objets de coûts. Ce
qui fait la particularité du TDABC, c’est l’utilisation de temps standards et
la manière dont ces temps sont valorisés. Un inducteur unique est utilisé
: le temps que l’exécution nécessite pour la réalisation des opérations Un
concept nouveau est introduit : le groupe de ressources. Il s’agit de l’agrégation
des activités qui consomment les mêmes ressources. C’est à ce niveau que se situe
l’homogénéité de la méthode.. Kaplan et Anderson définissent le « groupe
de ressources » comme une unité organisationnelle ou un service
(2007/2008, p. 76-81). Afin d’éviter une dérive, ils prennent la précaution de
préciser :
« Calculer les coûts au niveau
d’un département, est selon notre expérience, la façon la plus simple et la
plus rapide pour construire un modèle TDABC. Cependant, le coût d’un département
est valide seulement si la combinaison des ressources utilisées est la même
pour chaque activité et transaction produite dans le département. Cette
condition n’est pas respectée si les activités et transactions faites dans le
département utilisent des ressources différentes » Kaplan et Anderson, 2007, p. 49.
L’avantage de cette façon de procéder est que la
détermination des différentes activités devient superflue car les
« groupes de ressources » seraient a priori bien définis et moins nombreux que les activités. La
complexité des opérations est prise en compte à l’aide des équations de temps qui
permettent de déterminer la demande en ressources. Grâce à ces équations, il est facile de mettre à jour le modèle : ajouter une
activité supplémentaire (si elle est réalisée par le groupe de ressources),
ajouter des variables explicatives du temps passé, tenir compte des
modifications de la productivité… Cette simplification permettrait de faire
face à la multiplication des activités, sans entraîner de difficultés pour la
répartition des ressources entre celles-ci. On se situe bien dans le cadre
d’une méthode calcul de coûts de 2e niveau, avec le temps de travail
comme unité d’équivalence.
Dans les arguments développés pour promouvoir leur méthode,
les auteurs insistent sur la simplicité de l’implantation et de la maintenance.
Aujourd’hui le TDABC est mis en place principalement par un
cabinet de consultants : le cabinet Acorn dont Steve Anderson est le dirigeant
créateur et Robert Kaplan est membre du conseil d’administration. Il aurait
déjà été implanté dans plus de 200 entreprises (Kaplan et Anderson, 2007/2008,
p. 3).
Conclusion
Le rôle des méthodes d’équivalence éclaire l’histoire
contemporaine (voire immédiate) des calculs de coûts des 60 dernières années.
Il permet de voir la différence entre l’évolution dans les sciences de la
nature et du vivant, qui va du simple au complexe, avec celle des outils en
comptabilité de gestion qui marquent une oscillation entre ces deux pôles. Cela
tient sans doute à ce que les premières placent la recherche de la vérité au
premier plan, quelle que soit la sophistication des modèles qui tentent de la
connaître, alors que la comptabilité de gestion ressort de la technique et a
pour vocation la pertinence pour des utilisateurs qui ont une rationalité
limitée.
On note en effet, qu’après la méthode des sections homogènes
qui ambitionnait une imputation plus précise des charges indirectes, à l’aide
de l’homogénéité au sein des sections, une forme d’équivalence, les méthodes
autonomes d’équivalence apparurent au cours des années 1950 pour apporter une
réponse aux critiques qui dénonçaient la lourdeur, le manque d’homogénéité et
le nombre élevé des sections de la méthode des sections homogènes. Il s’agit
notamment de celle conçue par Georges Perrin : la méthode GP, D’autant
qu’au même moment, la diffusion des coûts standards se heurtait à une inflation
virulente.
Avec la croissance des années qui suivirent, le souci de
maîtriser les frais indirects devint moins prégnant, laissant place à celui
d’accompagner l’expansion. Le direct
costing se développa dans les années 1960 sur cette idée. Les méthodes
d’équivalence devenaient d’autant moins attractives qu’en matière de
simplification, l’atout qu’elles revendiquaient, l’analyse en coûts
variables/coûts fixes lui rendait des longueurs. Commença alors pour elles une
phase d’effacement.
Il faut attendre les revers des industries américaines face à
leurs concurrents nippons pour qu’un regain d’intérêt apparaisse pour
l’imputation des charges indirectes et que soit inventée la méthode ABC dans
les années 1980. En fait d’innovation, celle-ci présente une parenté très nette
avec la méthode des sections homogènes qu’avait proposée Rimailho fin des années
1920. Mêmes causes, mêmes effets ? C’est ce que laisse à penser la
réapparition de la méthode GP, devenue UVA dans les années 1990, et la
commercialisation du TDABC dans les années 2000 présentées comme ayant pour
objet de réduire la lourdeur, le manque d’homogénéité et le nombre élevé de
centres de regroupements de la méthode ABC.
Qui a dit « l’histoire est la science des choses qui ne
se répètent pas » ?... Paul Valéry !
Bibliographie
Alcouffe S. (2002), La
diffusion de l’ABC en France : Une étude empirique utilisant la théorie de
la diffusion des innovations, Congrès de l’AFC, Toulouse, mai.
Alcouffe S. (2004), La
diffusion et l’adoption des innovations managériales en comptabilité et
contrôle de gestion : le cas de l’ABC en France, Thèse HEC.
Alcouffe
S., Berland N. et Levant Y. (2008), «Actor-networks and the diffusion of management
accounting innovations: A comparative study», Management Accounting Research, vol 19, issue 1, march, pp. 1-17.
Alcouffe S., Berland N. et Levant Y. (2003), « Les facteurs de diffusion des innovations managériales
en comptabilité et contrôle de gestion : une étude comparative »,
Comptabilité – Contrôle – Audit, numéro spécial, mai 2003, pp. 7-26.
Alcouffe S. et Malleret V. (2004), « Les fondements
conceptuels de l’ABC à la française », Comptabilité
Contrôle Audit, vol. 10, no 2, p. 155-178.
Alcouffe
S., Berland N. et Levant Y. (2008), « Actor-Networks
and the Diffusion of Management Accounting Innovations : a Comparative Study », Mana-gement Accounting Research, vol. 19, n° 1, March, p. 1-17.
Audoye
J.M. (1955), « La méthode
des nombres caractéristiques », Revue
Française de Comptabilité, n° 2, juin, p. 35-45.
Baranger P. et Mouton
P. (1997), Comptabilité de gestion,
Paris, Hachette.
Bescos, P. L., Cauvin, E. et Gosselin, M. (2002),
La comptabilité par activités et la gestion des activités: comparaison entre le
Canada et la France. Comptabilité,
Contrôle, Audit, no. spécial, pp. 209-244.
Bessire D, Levant Y et
Nikitin M (2009), (2009), « L’émergence et la structuration d’une
communauté scientifique : le cas de l’AFC depuis 30 ans ».
Communication au 30ème Congrès de
l’Association Française de Comptabilité, Strasbourg, 27-29 Mai.
Bloch G. (1962),
« Conséquences commerciales d’une étude de rentabilité et de prix de revient
dans une entreprise fabriquant une grande variété d’articles », Travail et Méthodes, novembre, p. 59-60.
Boisvert H. (1993), La
comptabilité par activités, où en sommes-nous?, Colloque La comptabilité par
activités, où en sommes-nous ?, pp. 5-12, Montréal, HEC Montréal.
Boulat R. (2008), Jean Fourastié, un expert en
productivité. Presses Universitaires de Franche-Comté.
Bourquin M. (1954), Traité de comptabilité industrielle,
Paris, Dunod.
Bouquin H. (1993), Comptabilité de gestion, Paris, Sirey.
Bouquin H. (1995a), « Un aspect oublié de la méthode des
sections : les enjeux d’une normalisation privée de la comptabilité de
gestion », Revue Française de Comptabilité, no 271, octobre,
p. 63-71.
Bouquin H. (1995b), « Rimailho revisité », Comptabilité Contrôle
Audit, vol. 1, no 2, p. 5-33.
Bouquin, H. (1997a), La comptabilité de gestion, Paris, PUF.
Bouquin H. (1997b), Comptabilité de gestion, 2e éd,
Paris, Sirey.
Bouquin H. (2008), Comptabilité de gestion, Paris, Économica.
Brodier P.L. (1988), La VAD (la valeur ajoutée directe) : une
autre approche de la gestion, Paris, AFNOR.
Bromwich M. et Bhimani. A. (1994),
Management Accounting : Pathways to
Progress, London ,
CIMA.
Bruggeman
W., Levant Y., Everaert P., Saens G. et
Anderson S. (2008), « Cost Modeling in
Logistics Using Time-Driven ABC: Experiences
from a Wholesaler », International Journal of Physical Distribution
& Logistics Management, vol. 38, no 3, p. 172-191.
Burlaud A. et Simon C.
(1997), Le contrôle de gestion,
Paris, Vuibert.
Callon, M., (1986),
Some elements of a sociology of translation: domestication of the scallops and
the fishermen of St Brieuc Bay, in J. Law (ed.), Power, action and belief: a
new sociology of knowledge?, Routledge and Kegan Paul, London .
CEGOS (1937), Une
méthode uniforme de calcul des prix de revient. Pourquoi Comment ?, PR
53, Paris, CEGOS.
Chatzis K. (1999), « Searching for Standards :
French Engineers and Time and Motion Studies of Industrial Operations in the
1950’s », History and techno-logy, vol.
15, no 3, p. 233-261.
Church,
A.H. (1901), «The proper distribution of establishment charges», The Engineering Magazine, vol 21, p.
508-517, 725-734, 904-912;
Church,
A.H. (1902), «The proper distribution of establishment charges», The Engineering Magazine, vol 22, p.
31-40, 231-240, 367-376.
CNAM (1952), Cycle
d’information du 13 au 30 mai 1952. CNAM, Institut de technique comptable. 4ème
conférence THIBERT, Raymond-Bertrand. La méthode des prix standards et les
variations de prix, la méthode des points. (23 pages dact.), Bnf 4-V-18579.
CNPF (1957), «
Méthodes rationnelles de calcul », document ronéoté, Paris.
Cooper R. (1987), « The Two-Stage Procedure in Cost
Accounting : Part One »,
Journal of Cost Management, Summer, p. 43-51.
Cooper R. (1989), « The Rise of Activity-Based Costing-Part
Three: How Many Cost Drivers Do You Need, and How to Select Them ?
», Journal of Cost Management;
Winter, p. 34-46.
Cooper R. et Kaplan R.S. (1988), « Measure Costs Right: Make the
Right Decisions », Harvard Business
Review, September-October, p..96-103.
Datar S. et Gupta M.
(1994), « Aggregation, specification and measurement errors in product
costing », Accounting Review,
vol. 69, no 4, October, p. 567-591.
Fain B. (1951), « Technique
comptable et productivité », Rapport des Journées d’étude, Lyon, Ordre des
experts-comptables.
Fleischman R.
K. et Tyson, T.
N. (1993), Cost accounting
during the industrial revolution: the present state of historical knowledge. Economic History Review, 46, 3.
Gervais M. (2009), Contrôle de gestion, 9e éd,
Paris, Économica.,.
Gervais M. (1997), Contrôle de gestion, 6e éd,
Paris, Économica..
Gosselin M. (1997),
« The Effect of Strategy and Organizational Structure on the Adoption and
Implementation of Activity-Based Costing », Accounting, Organizations
and Society, vol. 22, no 2, p. 105-122.
Innes
J. et Mitchell F. (1995), « Activity-Based Costing » in D. Ashton.,
T. Hopper et R. W. Scapens (eds), Issues
in Management Accounting, Prentice-Hall, p.137-154.
Johnson
H.T. et Kaplan R.S. (1987), Relevance Lost:
the Rise and Fall of Ma-nagement Accounting, Boston , Harvard Business School Press.
Kaplan R.S.
et Anderson S.R. (2003), « Time-Driven
Activity-Based Costing », First
European Summit
on Time-Driven Activity-Based Costing.
Kaplan R.S. et
Anderson S.R. (2004), « Time-Driven Activity Based Costing », Harvard
Business Review, November, vol. 82, no 11, p.131-138.
Kaplan
R. et Anderson S.R. (2007), Time-Driven
Activity-Based Costing, Harvard
Business School
Press.
Traduction française : TDABC; la méthode ABC pilotée par le temps, Paris, Editions d’Organisation.
Kaplan R.S.
et Cooper R. (1998), Cost & Effect.
Using Integrated Cost Systems to Drive Profitability and Performance, Boston , Harvard
Business School
Press.
Latour,
B., (1999), On recalling ANT, in J. Law, & J. Hassard (Eds.), Actor network
theory and after, Blackwell Sociological Review, Oxford.
Lauzel P. (1971), Comptabilité
analytique, Paris, Sirey.
Lauzel P. (1973), Comptabilité
analytique, 2e éd., Paris, Sirey.
Lebas M.
(1994b), « Managerial Accounting in France . Overview of Past Tradition
and Current Practice », European
Accounting Review, vol. 3, no 3, p. 471-487.
Lebas, M. (1996), Management
Accounting Practice in France ,
in A. Bhimani (ed), Management Accounting, European Perspectives, Oxford , Oxford University
Press.
Lemarchand Y. (2002), «The military
origins of the French management accounting model, a return to the mechanism of
accounting change», Accounting History, vol 7, no 1, p. 23-57.
Levant Y. et Nikitin M. (2009), « Charles
Eugène Bedaux (1886-1944) : Cost
Killer or Utopian Socialist ? »,
Accounting Business and Financial
History, vol. 19, no 2, p.167-187.
Levant Y. et Nikitin M. (2010), Can management and financial
accounting be fully re-integrated? The example of french système croisé. Papier
soumis au 6th Accounting History International Conference, Wellington , New Zeland 18Th-20th
August.
LevantY. et Zimnovitch H. (2009),
« Costing in France during the industrial revolution – clarification by
the equivalence based methods ».Communications aux 14èmes
Journées d’Histoire de la
Comptabilité et du Management et Academy of Accounting
Historians Research Conference, Paris, 26-27 Mars,
Levant Y. et de la Villarmois O. (2007), « Le
Time-Driven ABC : la simplification de l’évaluation des coûts par le
recours aux équivalents : un essai de positionnement », Finance
Contrôle Stratégie, vol. 10, no 1, mars, p. 149-182.
Levant Y.
et de la Villarmois O. (2004), «Georges
Perrin and the GP cost calculation method: the story of a failure »
Accounting Business and Financial History, volume 14, number 2, July,
pp.151-181.
Lukka K. et Granlund, M. (2002), « The
fragmented communication structure within the accounting academia: the case of
activity-based costing research genres»,. Accounting,
Organizations and Society, 27, 1-2, p. 165-190.
Macintosh N. B.
(1998), « Management accounting in Europe: a view from Canada »,. Management Accounting Research, 9, p. 495-500
Malmi T. (1999), « Activity-based costing diffusion across
organizations: an exploratory empirical analysis of Finnish firms», Accounting Organizations and Society,
vol 24, pp. 649-672.
Malmi T. (1997), « Towards Explaining
Activity-Based Costing Failure : Accounting and Control in a Decentralized
Organization », Management
Accounting Research, Vol. 8, no 4, p. 459-480.
Merchant A. et Shields M.D. (1993), « Commentary on When and Why to Mesure Costs Less Accurately
to Improve Decision Making », Accounting Horizons, vol. 7, no 2,
June, p. 76-81.
Mévellec P. (2005), Les systèmes de coûts, Paris, Dunod.
Mévellec P. (2009), « Sections
homogènes », Encyclopédie de
Comptabilité, Contrôle de Gestion et Audit, 2e éd., Paris, Économica,
p. 1255-1267.
Miller
J.G. et Vollmann T.E. (1985), « The Hidden Factory », Harvard Business Review, September-October,
p. 142-150.
Neikirk
W. (1951), « How Direct Costing Can Work for Management? », NACA,
Bulletin, vol. 22, no 5, January, p. 523-535.
Noreen
E. (1991), « Conditions Under Which Activity-Based Cost Systems Provide
Relevant Costs », Journal of
Management Accounting Research, vol. 3, Fall, p 159-169.
Parenteau J. (1945), Calcul des prix de revient et comptabilité
industrielle, Paris, CEGOS.
Parenteau
J. et Charmont C. (1952), Calcul des prix
de revient comptabilité industrielle. Principes de contrôle budgétaire et
application des prix standard. Orléans, Hommes et Techniques.
Perrin
G. (1962), Prix de revient et contrôle de
gestion par la méthode GP, Paris, Dunod.
Perrin S. (1959), « La méthode G.P. et l’unification
de la mesure de la production »,
Travail et Méthodes, mars, n° 132, p. 32-36.
Perrin S. (1976a), « Pour maîtriser les prix de
revient : la méthode de gestion GP », Travail et Méthodes, juin-juillet, p. 17-23.
Perrin S. (1976b), « La méthode GP, système de
gestion », Travail et Méthodes,
août-septembre, p. 19-22.
Perrin S. (1977), « La méthode GP et la fonction
commerciale », Travail et Méthodes,
avril. p. 27-34.
Serrières X. (1969), « La guerre ou la paix dans
l’entreprise ? Réflexion sur la participation », Revue Études, tome 330, janvier-juin, p. 5-19.
Shields M.D. (1995), « An Empirical
Analysis of Firms’ Implementation Experience with Activity-Based Costing », Journal of Management Accounting Research,
no7, Fall, p. 148-166.
Raulet C. et Raulet C. (1982), Comptabilité analytique et contrôle de gestion, Paris, Dunod.
Richard
J. (1980), Comptabilité et systèmes
économiques, Thèse de doctorat d’Etat es Sciences de Gestion, 2 vol,
Université Paris 1.
Rimailho, E. (1947), Chacun sa part, 2 vol., Paris, Delmas.
Standish P (1997), The French plan comptable, Paris, Expert Comptable Media.
Thibert R. (1951-1952), La mesure de la productivité par l’emploi
des prix standard, méthode des points, un exemple avec utilisation d'un
équipement à cartes perforées dans une industrie de construction mécanique
complexe, Paris, Conservatoire des Arts et Métiers. Bnf V-18579(1951) et
Bnf 4-V-18579 (1952).
Thomas C. et Gervais M. (2008), « Le
problème du regroupement des activités dans la modélisation ABC : une
approche possible », Finance
Contrôle Stratégie, vol. 11, no 4, p. 137-170.
Thorens R. (1954), Prix
de revient et décompte d’exploitation, Neufchâtel, Delachaux et Niestle.
Weber
C. (1966), The Evolution of Direct
Costing. University of Illinois Press.
Aucun commentaire:
Enregistrer un commentaire