Archives de Catégorie: QUE SAVOIR ?

PARCHEMIN DE TRAVERSE / A PROPOS DE… Les saisons de la nuit de Colum Mc CANN par Anne BERTONI

« « C’est pas moi ! Le feu était vert ! Elle est venue se foutre là devant moi ! Regarde-moi ça ! » Et il montre la marque du corps d’Eleanor sur le capot en marmonnant : « La garce est venue se foutre devant moi ! » » (Ibid., p187).

 

Au début de cette lecture, je pensais savoir ce qui différenciait le haut du bas, tout comme j’étais convaincue, en bonne littéraire, de reconnaître un protagoniste d’un personnage secondaire dans une œuvre. Je m’attendais à être menée d’une action à une autre, selon les schémas classiques d’une structure narrative efficace. Distinguer le réel du fictif, sans que cela dérange ma petite conception de l’ordre établi.

Il semble bien, que, dans ses lignes, l’auteur cherche justement le contraire : détruire les pans de notre système intellectuel et confortable, tant sur la forme que le fond, brouiller les pistes de ce qui fait des êtres humains des avatars d’anges ou de démons. Oh, bien sûr, le cliché de l’homme broyé par la grande ville n’est même plus à évoquer, cependant, ici, il prend une nouvelle allure, unilatérale, absolue.

D’abord, la question émerge à la fin du deuxième chapitre : quelle relation peut-il bien exister entre Treefrog, ectoplasme perdu dans les profondeurs d’un tunnel, et Walker, ce travailleur noir qui creuse sous l’Hudson en 1916 ? Mc CANN ne rassure pas son lecteur et sait pourtant le mettre en haleine ; ici, tout est de l’ordre de l’impulsion, de l’instinct, et la relation créée avec le destinataire relève de l’osmose. On ne ressort pas indemne de cette lecture.

Ce récit est celui de la survie. La violence n’est pas visuelle, mais ce qui oppose la richesse humaine à la cruauté de la ville (pourtant construite par des hommes) est d’autant plus forte, car implicite. C’est, en fait, une véritable saga qui s’étend sur près d’un siècle. Dans cette dernière, tous les rapports spatiaux-temporels sont fondus. La logique n’a aucune prise sur les caractères dépeints et c’est en cela peut-être que ce roman est le plus bouleversant ; le happy end n’y a aucune place et il est inutile d’espérer reprendre son souffle après certaines scènes à peine soutenables.

Le reproche pourrait être fait à Mc CANN de « balayer large ». Mais ce qui fait aujourd’hui de New-York à la fois une capitale du monde intellectuel et de la misère affichée passe par cet amalgame atroce que représente la jeune histoire du continent américain. En ouvrant le livre, il faut laisser au loin les brochures touristiques…

Mc CANN tord également le cou à l’aspect tentaculaire de la ville, non pas en l’ignorant, mais en plongeant aux extrémités de chacun des bras de cette étrange Gorgone, ce qui a pour effet de rendre, au travers du filtre humain, un aspect réellement monstrueux à New-York. Du point de vue technique, Mc CANN réussit alors la prouesse d’unir la technique narrative au récit lui-même et cela fait de son œuvre, en soi, un objet admirable.

Seuls les individus du milieu, de la « surface », sont éludés. Ils n’en sont pas pour autant protégés, mais apparaissent transparents, sans âme. Par eux transitent toute la cruauté et l’horreur du quotidien d’un peuple qui se tait : celui des exclus. Pas une fois dans le récit, ce mot ne sera écrit. L’auteur économise l’analyse qui rendrait à son roman un aspect factuel, distancié.

Mc CANN a sans doute des maîtres en écriture : mais il a su gommer les influences (ce que n’a pu éviter Thomas PYNCHON (Points, P812) dans V, par exemple). Nulle ombre de mentor qui vienne nuancer les mots, tout semble issu des égouts de la ville.

Sur la forme, le roman tient du tableau impressionniste. Si l’auteur nous maintient dans le mystère complet pendant quelques chapitres, il inclut, par petites touches, des détails qui entretiennent le suspense et tissent les relations entre personnages. Le rythme est régulier et entraînant, tant et si bien qu’au final, on doit réfléchir pour concevoir la gigantesque fresque à l’intérieur de laquelle nous avons évolué. Le point de vue interne choisi par l’auteur et les nombreux passages au présent narratif accréditent, si besoin était, tout l’ensemble.

Finalement, que savoir en fait, lorsque se tourne la dernière page ? Tout comme on est passés du bas vers le haut, avant de replonger, on hésite entre espoir et catastrophisme.

Choisissons la première option : la vie est partout, même dans le plus sordide, l’amour suinte des recoins les plus infâmes de la ville. Mc CANN fait comprendre à son lecteur que la qualité des relations humaines ne nécessite aucun cadre, aucun dogme et c’est peut-être ce qui nous reste, ce qui nous définit, lorsque nous n’avons plus rien.

 

« Il avait emmené la petite Lenora au bord de l’eau ; il avait tendu un bras, plié un genou et écarté les orteils, le pied levé, et l’enfant avait imité chacun de ses gestes, mais rien ne bougeait dans le ciel et il n’y avait pas une seule empreinte dans la boue. Ils étaient restés ainsi, à danser » (Ibid., p. 248).

Poster un commentaire

Classé dans QUE SAVOIR ?

SOCIOLOGIE / QUE SAVOIR ? VIVE LA CRISE (DE LA SOCIOLOGIE) ! par Jean-Marc REMY

« Je suis parfaitement conscient aussi bien du passé que de la situation présente de l’Empire. Sans vouloir blesser personne, je prétends connaître la question mieux que n’importe lequel d’entre vous (…) la psychohistoire, qui peut prédire la chute de l’Empire, peut également prévoir ce que seront les âges de barbarie qui suivront… » (déclaration de Hari SELDON in Fondation de Isaac Asimov).

La psychohistoire d’aujourd’hui (disons la sociologie…) ne saurait, sans se déconsidérer d’avantage, se risquer à de telles conjectures. Au vrai, plus on « connaît la question », plus on se fait modeste : on a renoncé depuis longtemps aux grandes fresques historiques (des « trois âges » d’Auguste COMTE…) pour s’attacher aux « interstices » du social (à la « mise en scène de la vie quotidienne » d’Ervin GOFFMAN). Mais la matière sociale semble devoir échapper à la traque du chercheur à mesure que celui-ci développe de nouveaux instruments de mesure, propose de nouvelles grilles d’analyse, investit de nouveaux terrains… Au moment même où le savoir sociologique s’institutionnalise, d’un coté, se banalise, de l’autre, il semble comme « frappé d’infirmité » (cf. BUSINO, Critique des savoirs sociologiques). On parle d’une crise de la sociologie…

Sa scientificité est contestée de l’extérieur par les tenants des sciences dures et invalidée de l’intérieur par une pluralité non cumulative. Sa prétention à rendre compte des conduites humaines est sévèrement jugée par la philosophie voire moquée par la tradition littéraire.

Faut-il s’affliger de cette incapacité prédictive : n’est elle pas le propre des sciences sociales ? Faut-il déplorer cette impuissance à mettre en ordre le social ? N’est-ce pas la condition de notre souveraineté ? Et si paradoxalement les sciences sociales en mettant à jour les arcanes de la vie en société ne participaient elles-mêmes à l’indétermination croissante du social, marque de la modernité…

L’Encyclopedia Galactica du roman d’anticipation Fondation définissait la psychohistoire comme la « branche des mathématiques qui traite des réactions des ensembles humains en face de phénomènes sociaux et économiques constants« . Pareillement, les sociologues ont fermement cru pendant longtemps que le monde était totalement explicable, en dépit de son hétérogénéité apparente, pourvu que l’on applique à l’étude des sociétés les mêmes modèles cognitifs que ceux utilisés par la science.

La physique, « reine des sciences » pour PARETO, a longtemps servi de paradigme dominant. Au-delà de certains emprunts métaphoriques (la « mécanique » sociale) ou conceptuels (la notion de « position » sociale par exemple, basée sur un système de coordonnées quasi-géométrique), c’est la conviction que la société est un système de forces en équilibre, qu’il existe une pesanteur sociale semblable à la pesanteur physique. Mais la loi de l’attraction se révèle bien peu universelle dans l’espace social : si la fameuse pomme de NEWTON tombe selon une trajectoire parfaitement prévisible et reproductible, il s’en faut de beaucoup que les trajectoires sociales répondent aux mêmes schémas prédictifs. Alors, on parle de « réussite paradoxale » pour expliquer que, malgré tout, certains enfants d’origine populaire peuvent connaître une ascension sociale que rien n’annonçait, on mâtine certaines conclusions en se parant du langage des « probabilités »… Et si la musique des sphères est immuable, la physique sociale ne pouvait rendre compte des problèmes posés par la métamorphose des ensembles humains. De même, si les pommes tombent sans intention de tomber, l’homme lui a des objectifs, il fait des projets…

La biologie offrait alors un support plus riche pour penser le social en termes organicistes en intégrant les notion de circularité et d’évolution. La société ayant, comme tout organisme vivant, une finalité prépondérante : survivre et croître. Tout en se démarquant des versions les plus systématiques (SPENCER), DURKHEIM n’a pas échappé aux enchantements de ces approches mécanistes et organicistes, ouvrant la voie à un « fonctionnalisme » essentiellement conservateur pour qui chaque institution sociale avait un rôle précis dans un ensemble finalisé. PARSONS représente le couronnement de cette tentative de formalisation du « Social system » : sa description, qui se voulait exhaustive, des différents emboîtements du social et de ses articulations a constitué jusqu’à une période récente le paradigme dominant de la sociologie. Elle supposait un appareillage mathématique et statistique imposant qui accréditait la discipline… tout en l’exposant à une « quantophrénie » vite dénoncée dans ses propres rangs (cf. le regard cruel que SOROKIN portait sur ses pairs dès 1956), et à des simplifications irréalistes.

 

LA PLACE DU DÉSORDRE

 

Il fallait bien faire sa place au « désordre » dont témoignent chaque jour qui passe les œuvres humaines. R. BOUDON reconnaît que la seule attitude scientifique respectueuse du réel consiste à dire : « On ne peut pas prédire« . « Imaginons, disait SIMMEL, un homme qui a eu une enfance épouvantable. Deux voies s’ouvrent à lui par la suite. Il peut soit essayer de se venger en étant méchant et insupportable avec tout le monde soit au contraire devenir généreux« . Il est toujours possible de fournir des explications a posteriori mais il serait absurde d’essayer de prévoir a priori ce qui va se passer. C’est que les hommes ne sont pas seulement animés par des mobiles « logiques » : la recherche du maximum de satisfaction par exemple (seul horizon anthropologique de l’économiste et des tenants de la « théorie des choix rationnels »). PARETO avait d’ailleurs établi que l’objet de la sociologie résidait dans le domaine des « actions non logiques ». Cette impureté des actions de l’homme historique tient d’abord au fait que l’homme n’a pas l’éternité devant lui pour répertorier et combiner les implications de ses décisions, en ce sens toute décision est « politique » pour J.-C. PASSERON (Le raisonnement sociologique). Par ailleurs, un système formel ne peut rendre compte des hiérarchies de préférence qui tiennent à des influences culturelles ou intégrer des éléments volatils et par définition « incontrôlables » (comme l’intuition, la violence instinctive…) qui nourrissent des stratégies parfois opaques aux acteurs eux-mêmes (« C’est dans ma nature ! » dira le scorpion à la grenouille – qui veut bien le transporter sur la rivière – au moment de lui administrer une piqûre fatale pour l’un comme pour l’autre… une psychanalyse, peut-être ?!).

S’il ne peut plus prévoir, déduire, le sociologue peut encore « interpréter », comprendre. Et c’est toute la fortune d’un versant contemporain de la discipline marqué par les apports de WEBER ou de SIMMEL. Se gardant de la tentation déterministe, ils ont ramené leurs ambitions à tâcher de saisir les multiples « raisons » des acteurs et d’imaginer les implications de leurs possibles choix. Cela ne signifie nullement renoncer à une démarche scientifique. D’autres outils que la simple méthode « hypothético-déductive » ont pu être mobilisés : la stylisation « idéal-typique » de WEBER, l’analyse stratégique, la simulation… et la prise en compte des données contextuelles propre aux sciences historiques. Il s’agit toujours de rendre intelligibles des phénomènes qui ne le sont pas immédiatement. Mais la preuve ici est une question de plus ou moins, non de tout ou rien, et il faut se défaire de l’idée que « la vérité est unique ». R. BOUDON (L’art de se persuader des idées douteuses, fragiles ou fausses) produit de nombreux exemples de « vérité multiple ». Il accrédite ainsi l’explication fameuse que Max WEBER avance du paradoxe de la religiosité d’un pays « neuf » comme les États-Unis (explication « fonctionnelle » fondée sur l’analyse comparative du contexte socio-économique américain avec celui de la vieille Europe : la nécessité de se donner des « signes de confiance » pour passer des contrats d’affaire), mais celle-ci n’invalide nullement les approches « génétiques » du même phénomène (dimension historique du phénomène apparaissant dès la colonisation anglaise) : les deux sont également « vraies » tout en constituant des « points de vue » distincts !

Mais le déploiement de multiples registres d’explication rend difficilement cumulatifs les acquis des uns et des autres faisant apparaître la tâche comme « interminable » et toujours provisoire : cela peut justifier son constant renouvellement (WEBER : « Il y a des sciences auxquelles il a été donné de rester éternellement jeunes« ). Cela peut aussi lui attirer des suspicions. Celle des « vrais » scientifiques (tenant de la « vérité unique ») d’un coté, mais aussi celle du philosophe qui s’en prend volontiers aux cotés spécieux des raisonnements du sociologue, à la fragilité de ses constructions théoriques. « A quoi bon !« , dira-t-on d’une discipline à la fois si austère et si improductive ? Car de son coté, la littérature lui voue une aversion tenace : STENDHAL, FLAUBERT ou Thomas MANN n’auront que dédain pour cette « science infirme« . Ils revendiquent pour les seuls artistes le privilège de dire le « sens » du monde et contestent son ambition de donner à la société moderne – par des moyens « rationnels » – les orientations ultimes (cf. LEPENIES, Les trois cultures). Et il faut bien convenir que Bouvard et Pécuchet ou aujourd’hui les Particules élémentaires nous en disent plus sur le cours des choses et la vie des gens que nos besogneux experts en « sciences sociales » ! C’est sans doute pourquoi SIMMEL, par exemple, finira par mettre au rancart la raison pour élaborer une théorie de la connaissance faisant toute sa part au sentir et à l’intuition.

 

DES CHOSES CACHÉES…

 

Il faut donc se réjouir que nos contemporains « psychohistoriens » ne puisse parvenir à leurs fins : les visées technocratiques des premiers sociologues – dans la mouvance saint-simonienne – auguraient de lendemains totalitaires (façon Big brother). Et la déconvenue de nos experts donne la mesure de l’incommensurabilité humaine, c’est-à-dire de notre souveraineté en dernière instance.

Il est pourtant un usage des sciences humaines qui peut ouvrir des espaces de liberté. C’était l’espoir d’un Pierre BOURDIEU par exemple… Quand la pleine conscience des contraintes sociales qui pèsent sur nous permet d’imaginer (individuellement ou collectivement) des passages inédits, quand l’intelligence de nos propres déterminations nous permet de faire de véritables choix. Des causalités cachées font parfois tomber les individus dans des pièges ou les engagent dans des voies qu’ils n’ont pas prévues : il convient alors de les prémunir contre leur propre irrationalité. C’est ce qu’avait compris Ulysse qui se fit attacher au mat de son bateau pour échapper au chant des sirènes. Le scorpion de l’histoire, mieux « informé » peut-être ?!

Le problème pour la sociologie (comme pour toutes les sciences de l’homme), c’est qu’en contribuant à accroître l’espace des choix, en abattant les cartes d’un jeu aux règles par ailleurs changeantes, elle rend l’avenir plus ouvert encore, moins prévisible donc ! Pire, il lui arrive d’invalider elle même ses propres conclusions en « informant » les acteurs. C’est tout le problème de la réflexivité : « Les anticipations que vous faites sur l’avenir peuvent abolir les conditions dans lesquelles les choses vont se produire » (Anthony GIDDENS). Le sociologue anglais s’attache à cette question qu’il situe au cœur de notre modernité. Elle trouve parfaitement à s’illustrer par exemple dans le cas des marchés financiers où chaque information nouvelle contribue à modifier les comportements. De même, si les sondages – en dépit de leur plus grande précision – sont régulièrement démentis c’est parce que leur publication même induit des nouvelles réactions. A la façon d’un miroir tendu à nos contemporains, la connaissance que l’on a de la société devient un facteur agissant sur la société elle-même, en une régression infinie… Par là, les sciences humaines doivent assumer une responsabilité que n’ont pas à endosser les sciences de la nature : quand COPERNIC affirme l’héliocentrisme il ne fait pas tourner la terre autour du soleil, quand BOURDIEU énonce le principe de la reproduction sociale par l’école il induit des comportements qui peuvent tout aussi bien contrarier que renforcer le phénomène (usage stratégique des classes privilégiées, intériorisation de l’échec chez les enfants d’origine populaire).

C’est peut-être cela qui expliquait l’attitude – bien peu démocratique ! – d’un PARETO pour qui ces (semi-)vérités devaient rester cachées au plus grand nombre (Hari SELDON lui-même prétendait que les vérités de la psychohistoire dépassaient l’entendement du simple citoyen). De même, le psychologue peut déplorer parfois la diffusion d’une vulgate qui ruine à l’avance ses procédés détournés par le profane (« Docteur, je crois que je fais un transfert !« ). Y-aurait-il dans ces matières une contradiction intrinsèque entre la vérité scientifique et l’utilité sociale ? Le sociologue italien n’était pas loin de le penser qui considérait que la vérité sur la société pouvait être un facteur de désagrégation sociale. Le vrai n’est pas forcément utile, l’utile serait fait de fictions et d’illusions. Ces conclusions de tonalité pessimiste et conservatrice rejoignent pourtant les intuitions de l’une des plus fécondes anthropologues de notre temps, Mary DOUGLAS, qui avance que « les savoirs collectifs ne sont robustes que dans la mesure où ils ne sont pas transparents« . Toutes les sociétés possèdent à la fois des conventions et ce que l’on peut appeler des croyances opaques (« des choses cachées depuis le début du monde« , R. GIRARD). Et l’on ne peut bâtir une société sur les seules conventions soumises au bon vouloir et subordonnées aux intérêts de chacun. Il y faut soit de la coercition (la « violence légitime ») soit quelque chose de plus fondamental qui relie par analogie les nécessaires conventions à des structures mentales profondes ou à des institutions symboliques : ici les mythes l’emportent sur les concepts, et la culture reprend ses droits car, décidément, « convaincre est infécond » (W. BENJAMIN)…

Poster un commentaire

Classé dans QUE SAVOIR ?

LINGUISTIQUE / PEU SAVOIR : HYPER- OU HYPO-TEXTE ? TOUT CE QU’IL MANQUE A UN HYPERTEXTE POUR FAIRE UN TEXTE par Olivier MARTY

En parcourant le courrier que le facteur m’a apporté, je suis tombé sur une carte postale étrange : « Jules, Je t’écris de Guyane où il fait un grand et beau soleil. J’espère que tu vas bien et que Mireille s’est remise de ses émotions. Je te rappelle dès mon retour en France. Bonnes vacances ! Simon« …

Au dos, cette photo peu commune : une splendide pirogue glissant sur les eaux saumâtres d’un fleuve exotique. Je souris. Apparemment le facteur s’est trompé d’adresse. Ici nous sommes au 1 bis rue Cluvier, et non au 1 rue Cluvier. Le facteur a du se méprendre à nouveau. Mais qui est donc ce Jules ?

Je pose la carte sur la table et parcours le lot de factures qui m’a été adressé. Distrait, je repense au message adressé à Jules. Que dit-il exactement ? Que Jules passe des vacances et qu’il pense à Simon au point de lui écrire. Soit, ceci constitue l’objet explicite du texte. Mais il contient d’autres éléments que je ne peux pas comprendre. Quelles sont donc ces « émotions » desquelles doit se remettre Mireille ? Et qui est Mireille ? La femme de Jules ? Il me manque beaucoup d’éléments pour comprendre ce texte. Il faudrait demander à Simon : lui doit savoir puisqu’il connaît le contexte dans lequel s’inscrit ce message (contexte au sens de E. T. HALL, La dimension cachée). Il partage plusieurs données avec Jules que ce dernier n’a pas besoin de rappeler dans sa carte postale. Étranger à ce contexte, une grande partie du sens du texte m’échappe. Enfin, je connais tout de même la majeure partie des mots employés : le texte est écrit en français et de vagues souvenirs de géographie me permettent de resituer la Guyane. Mon voisin, qui est anglais, aurait été encore plus étranger au texte : il ne comprend rien au français ! Le « hors contexte » serait encore plus marqué chez lui. Mais laissons-là mon anglais de voisin. Que dire de plus de cette carte postale ? Elle contient un deuxième implicite : en plus du contexte qui rend compréhensible le texte de Simon à Jules, la carte contient un méta-texte qui nous renseigne sur la relation entre Simon et Jules (cf. la méta-communication de G. BATESON, Pour une écologie de l’esprit). On devine en effet, en filigrane, que Simon et Jules s’entendent bien : si le premier écrit un message de bonjour au second, c’est qu’ils doivent être amis – peut-être de la même famille ? La carte postale comporte ainsi plusieurs indicateurs qui précisent la relation entre l’auteur et le lecteur à qui elle est destinée, indicateurs de relation qui constituent un méta-texte.

Reprenons. La carte postale de Simon a un objet explicite : la volonté de donner de ses nouvelles – un simple prétexte ? Elle contient ensuite deux types d’implicites : d’une part le contexte partagé par l’auteur et son lecteur de sorte que les deux peuvent se comprendre ; d’autre part le méta-texte qui renseigne sur la relation que veut établir l’auteur avec son lecteur. Cette structure tripartite des textes est-elle réservée aux cartes postales ? Non : le texte que vous avez sous les yeux se veut être un texte théorique et peut se décomposer de la même manière. Il a un prétexte : analyser les différences entre un texte et un hypertexte – mais n’anticipons pas trop sur la suite. Il a un contexte : tout d’abord le sens des mots français ; ensuite le sens de l’abstraction « méta-texte » qui s’est précisé dans votre esprit au fil des lignes. Il a enfin un méta-texte : le ton employé, le choix de la personne à laquelle il est écrit… autant d’indices sur l’état de notre relation, à vous et à moi, cher lecteur. Les textes théoriques, et d’autres encore, ont donc une structure tripartite.

Quoique. J’entends d’ici votre remarque judicieuse : « Pas tous !« . Effectivement, il faut le concéder, certains textes théoriques ne contiennent que peu d’implicites. Le contexte est explicité au maximum (toutes les mots sont soigneusement définis) et le méta-texte est très pauvre (comme si le texte n’avait été écrit par personne et s’adressait à tous). Comment analyser cette absence de méta-texte ? On peut, pour simplifier, classer les textes selon leur degré d’anonymat. Les textes les moins anonymes, comme la carte postale que Simon adresse à Jules, sont écrits par une personne déterminée et adressée à une autre personne non moins déterminée. A l’opposé, les textes les plus anonymes ne parlent pas de leur auteur et encore moins de leur lectorat : c’est le cas de la Bible, ou de toute autre texte qui semble tomber du ciel. Entre ces deux extrêmes se rangent la plupart des textes pour lesquels l’auteur, comme le lecteur auquel il s’imagine écrire, sont plus ou moins perceptibles au travers d’indices méta-textuels. On peut alors lire dans le texte le lecteur imaginaire auquel s’adresse l’auteur – qui n’est pas toujours le lecteur réel comme le montre l’exemple de la carte postale. Quoiqu’il faille alors rajouter, par souci de symétrie, que l’auteur tel que le lecteur le devine à travers le texte, n’est jamais que son auteur imaginaire.

Et vous lecteurs ! Je vous ai vus à essayer de vous évader dans les méandres de vos pensées ! Laissons là, si vous le voulez, cette remarque de second ordre sur les auteurs imaginaires. L’essentiel est de coller à l’idée principale. Quelle est-elle ? La différence entre les textes et l’hypertexte. Après avoir vu la structure tripartite de bon nombre de textes, voyons à présent comment peut se caractériser l’hypertexte.

Une des particularités de l’hypertexte est la liberté offerte au lecteur de couper le fil d’un texte pour se saisir au vol d’un autre. Il tisse ainsi ses propres suites de mots en sautant d’un texte à un autre, au gré de ses envies. Le lecteur est libre d’aller et venir comme bon lui semble. Plus moyen, pour l’auteur, de l’enfermer dans un hermétique texte de fer. Inutile, donc, de bâtir des architectures textuelles trop complexes : le lecteur vagabond ne prendra pas la peine d’explorer tout l’édifice, il ne parcoura pas plus d’une ou deux pièces du raisonnement. Ces changements incessants ne laissent plus véritablement le temps d’établir une relation de complicité entre le lecteur et l’auteur : les implicites s’amenuisent.

C’est tout d’abord le sens précis accordé à certains mots qui ne peut plus être précisé au fil du texte. L’auteur n’a plus le temps de développer peu à peu le contexte à partager avec ses lecteurs pour que ses textes soient bien compris. Tout a au contraire tendance à se ramasser en quelques lignes brèves et explicites. L’hypertexte, parce qu’il veut être compris par un lecteur passager, diminue son contexte implicite.

Ce sont ensuite les variations dans la relation auteur-lecteur qui sont plus difficiles à mettre en place : pressé par le temps, l’auteur ne prend plus la peine de jouer avec son identité au fil du texte. Il ne peut qu’en rester à une présentation brève, voire à une réserve totale. La tonalité de la relation est donc donnée rapidement et ne varie pas au fil du texte. Ici aussi c’est un second implicite, celui du méta-texte, qui s’amenuise.

Un hypertexte relié au Web, ou quelques uns de ses fragments, a beaucoup de chance d’être parcouru à toute hâte dans le plus grand anonymat. Le lecteur pressé ne vient que pour le prétexte, que pour l’information précise qu’il recherche. Et une fois le train d’information attrapé, il s’en retourne. Les hypertextes sont finalement comme des halls de gare : à l’inverse d’un habitat textuel privé et personnalisé, on les traverse sans prendre garde à ceux qui les ont fait, sans s’attarder à des ornements qui deviennent de plus en plus standardisés.

Ainsi l’hypertexte est un hypotexte dans le sens où il ne laisse pas de place aux implicites – ni au contexte ni au méta-texte.

Poster un commentaire

Classé dans QUE SAVOIR ?

MUSICOLOGIE / MUSIQUE, MUSIQUES par Joëlle-Elmyre DOUSSOT

« So far tranquillo ogni turbato core

Et or di nobil ira et or d’amore

Posso infiammor le più gelate menti« .

 

« C’est moi la Musique et par mes doux accents

Je sais calmer tous les cœurs troublés

Et je peux enflammer ou d’amour ou de noble courroux

Les cœurs les plus glacés« .

Ce poème d’Alessandro STRIGGIO, prélude au premier opéra de l’histoire de la Musique, L’Orfeo de MONTEVERDI, résume magistralement le rôle de la musique dans la civilisation, dans l’histoire même de l’humanité. Car la musique a été la première forme d’expression humaine. Avant de parler, l’homme a émis des sons au moyen d’instruments les plus simples et les plus divers, brins de roseaux, os d’animal percé de quelques trous : source de communication, d’invocation divine, d’expression intime des sentiments, des craintes, la musique faisait déjà partie de l’univers de l’homme que l’on dit primitif.

La musique est également omniprésente dans la Bible. La figure de DAVID chantant et s’accompagnant de la lyre, si fréquente dans les textes, les peintures, ou aux portails des cathédrales rappelle que les chants de l’Église se réfèrent sans cesse au chantre royal de Dieu.

La musique se doit d’être à la ressemblance des chœurs angéliques célébrant la gloire divine qui les auréole de lumière : les anges musiciens invitent l’âme à percevoir l’immatérielle résonance de leur chant. Guillaume DE MACHAUT, chanoine de la cathédrale de Reims, fait sienne la théorie que la musique sert à « essaucier » Dieu et sa gloire, tirée essentiellement de l’ouvrage du Pseudo-Denis l’Aéropagite, penseur néo-platonicien sans doute du Vème siècle, La Hiérarchie céleste. Méditant sur les noms divins et la hiérarchie des êtres de lumière, il traite abondamment des anges, messagers de Dieu, colporteurs du message divin : « La parole de Dieu a transmis aux habitants de la Terre certaines hymnes que chante la première hiérarchie et dans lesquelles se manifeste saintement l’éminence de l’illumination, la plus haute de toutes, qui lui appartient« .

Chanter, c’est donc, par l’harmonie des sons, résumer le Verbe divin, tel que le définit la Genèse : « Par sa parole, les cieux ont été faits« , mais aussi le Verbe-Vie, le Verbe-Christ.

Mais la musique n’est pas née de la civilisation judéo-chrétienne. Elle était présente dans toutes les civilisations antiques : pensons à ces représentations de musiciens dans l’art égyptien, grec, romain… Elle accompagnait les cérémonies cultuelles, certes, mais aussi la vie quotidienne, les banquets, les fêtes… La conception chrétienne de la musique, née de l’harmonie des sphères, réaffirmée par KEPLER (« Le reflet multiple des astres joue la mélodie et la nature sublunaire danse sur cette musique« ) est en effet le reflet de théories, très répandues au VIIème siècle, mais issues de l’Antiquité. En réalité, la théorie de l’harmonie des sphères remonte au Philosophe grec PYTHAGORE, pour qui l’univers entier se définissait en termes d’harmonie et de nombre. D’après lui, l’âme microscopique et l’univers macroscopique sont construits selon des rapports de proportion idéaux qu’on peut ramener à une suite de sons. L’on calculait la hauteur des différentes notes planétaires sur l’échelle musicale d’après le temps que les planètes mettaient à parcourir leur orbite et l’on mettait les distances en rapport avec les intervalles de tons.

KEPLER compliqua encore ce système en décernant à chaque planète une suite de sons propres. Quant à KIRCHER, qui représentait Dieu en constructeur d’orgues, il divisait les différentes zones du Ciel et de la Terre en octaves, dont les sept degrés englobaient le Monde, puisque le chiffre sept réunit la Sainte Trinité et les Quatre Éléments.

Basée sur les théories mathématiques, la musique est donc bien « savante » : elle est à la fois une science et un langage qui, en tant que tel, doit être organisé selon des règles. Elle est aussi, sans nul doute, le domaine où les théories peuvent justifier l’organisation des formes avec le plus de précision. Dès le VIème siècle, traiter de la musique a consisté essentiellement à élaborer une philosophie musicale, à penser la fonction des sons et, secondairement, à composer des mélodies et à les exécuter. La notion même de musique englobe un ensemble beaucoup plus vaste que de nos jours, comprenant tout à la fois les données métaphysiques qui la fondent et les mathématiques qui l’organisent. Elle est donc avant tout objet de spéculations, la plupart dérivée des théories de BOÈCE, philosophe latin, homme de science au savoir extrêmement vaste. Sa pensée s’organise autour de l’idée que, par la raison divine, toutes choses furent établies dans l’harmonie d’après l’ordre des nombres. Cet ordre figurait dans l’intelligence du Créateur et c’est à partir de lui que naquirent la multitude des éléments, la succession des saisons, la course des astres dans le ciel. Donc, le nombre est le principe de toute chose et la musique selon BOÈCE n’est pas autre chose que la science des nombres qui régissent le monde.

S’inspirant de QUINTILIEN et de MACROBE, le philosophe distingue trois grandes catégories dans la musique, où il voit la source de l’harmonie universelle.

D’abord, la Musica Mundana, la musique du monde, c’est-à-dire l’harmonie fondamentale présidant à la course des astres, au mouvement des éléments, à la succession des saisons et aussi la musique des sphères, c’est-à-dire la musique produite par les sphères dans leur mouvement concentrique autour de la Terre.

Ensuite, la Musica Humana, soit l’accord entre le corps de l’homme et son âme, sa sensibilité et sa raison, le sujet connaissant et l’objet connu et enfin la prise de conscience par le sujet qu’il est en harmonie avec le monde.

Enfin, la Musica instrumentalis qui, par l’art, imite la nature.

Les esprits médiévaux vont reprendre cette définition de la musique dont l’immense domaine recouvrait presque totalement le champ des similitudes qui organisèrent le savoir occidental jusqu’au XVIème siècle.

La musique est donc bien une authentique science et l’on peut donc bien parler de « musique savante ». Mais le mot n’avait pas alors la connotation actuelle. Notre époque ghettoïse la musique dite savante, la relègue dans un domaine soit-disant réservé à une élite et l’oppose à la musique dite populaire. D’un côté, musique de variété, de danse, techno, hip-hop… ; de l’autre, musique faussement appelée classique, mot qui ne recouvre en réalité qu’une époque très restreinte et ne concerne que trois compositeurs : MOZART, HAYDN et BEETHOVEN. Ces musiques s’opposent sur un fond de lutte sociale et de conflit de génération : la musique « populaire », largement diffusée par les médias, devenue objet et auxiliaire de consommation – les fonds sonores assourdissants diffusés dans les boutiques, les centres commerciaux, ne sont-ils pas sensés dynamiser les ventes – à moins qu’ils ne fassent fuir les clients, lassés d’être ainsi agressés par un déferlement de décibels ? – est aussi la musique des « jeunes », alors que la musique savante est celle des classes sociales plus âgées et « bourgeoises ».

Une telle distinction n’existait pas avant le XIXème siècle. Cette musique, objet de spéculations mathématiques ou philosophiques a d’abord servi à louer Dieu et était donc destiné au peuple tout entier, de même que les drames liturgiques, représentés sur le parvis des églises pour entretenir la ferveur religieuse.

Au XVIIème siècle s’ouvrirent à Venise les premiers opéras publics dont le succès fut immédiat et fulgurant. Ils accueillaient toutes les classes sociales et les valets y venaient avec leurs maîtres, écouter les opéras de MONTEVERDI, qu’ils connaissaient par cœur. Imaginons l’ambiance de la lagune, où les gondoliers se livraient à des duos improvisés… Et MOZART, déjà à l’agonie, eut pourtant une ultime joie, celle d’entendre les cochers, passant sous sa fenêtre, siffloter quelques airs de sa Flûte enchantée.

Cette musique savante peut donc être aussi populaire, au sens réel du terme, c’est-à-dire toucher tout être humain, quelle que soit son origine culturelle. Elle ne doit pas être réservée à une élite, mais rester accessible à tous et les moyens actuels de la diffusion pourraient y aider grandement. D’où vient alors cette apparente désaffection ? De nombreux malentendus sans doute et aussi d’une insuffisance de l’éducation et de la pratique musicales, particulièrement en France. Les petits Allemands, les petits Anglais sont initiés très tôt, participent à des chorales de grande qualité, bénéficient de plus d’heures de musique dans leurs emplois du temps à l’école ou au collège. Les lycées belges pratiquent l’initiation à l’opéra, les élèves peuvent assister à des répétitions, créer même des œuvres qui seront mises en scène. Devenus adultes, ils ne cesseront pas de fréquenter les salles qui leurs sont devenues familières.

Il serait donc souhaitable que les conditions de l’éducation et de la pratique musicales soient améliorées en France, que l’on redonne aux jeunes le goût de la musique, qu’on leur rende enfin accessible un patrimoine culturel indispensable à la formation – et au bonheur – de tout « honnête homme ».

Poster un commentaire

Classé dans QUE SAVOIR ?

EDUCATION / LA REFLEXION AU CENTRE DE LA PRATIQUE PEDAGOGIQUE QUOTIDIENNE par Raphaël FRANGIONE

Une considération s’impose préalablement avec plus d’attention qu’autrefois, à savoir que quand on parle avec insistance de refondation de l’école et des systèmes éducatifs, quand on discute d’éducation dans sa globalité de façon prolixe, je dirais dans sa « complexité », d’après l’expression d’E.MORIN (jamais l’école française n’avait suscité une production éditoriale vraiment démesurée, une vingtaine d’ouvrages à la rentrée 2000), cela veut dire que l’école en tant qu’institution fondamentale va traverser un moment vraiment inquiétant, malade qu’elle est d’immobilisme et d’un certain académisme (la polémique entre « disciplinaristes » et « modernistes » me paraît banale, voire vaine).

 

RÉFLEXIONS DE PÉDAGOGIE GÉNÉRALE

 

On a l’impression, en fait, que la recherche didactique au niveau européen ne progresse pas. On est voué plus à comprendre la manière d’exploiter les T.I.C.E., porteuses sans doute de potentialités, mais aussi de risques, qu’à indiquer des voies nouvelles et performantes au niveau des réalisations concrètes en classe de langue. On apprend dans les magazines spécialisés des nouvelles approches didactiques, des formules toutes faites illustrées comme des parcours capables d’affronter chaque type de problématique. Ces innovations, au lieu d’alléger les travaux journaliers de l’enseignant, jettent dans une confusion presque totale son destinataire privilégié, l’apprenant. La dernière nouveauté, qui a séduit presque tous les systèmes éducatifs de l’Europe occidentale s’appelle « approche modulaire », à appliquer, dit-on, quand le discours devient « complexe ». Or, sans entrer dans la dispute entre ce qui est simple et ce qui complexe en didactique, soulignons simplement que la communication est un art difficile et que « l’essentiel » pour l’école reste celui de bien motiver les apprenants à prendre en charge leur formation, à devenir acteurs de leur projet formatif. Je suis de plus en plus persuadé que tout ça passe à travers l’enseignant, moteur de recherche et d’innovation, pour qui travailler à l’école ne veut pas dire appliquer telle ou telle autre théorie mais faire en sorte qu’on établisse avec l’élève un rapport d’échanges pour mieux répondre aux exigences des jeunes avides de savoirs. Maria Luisa VILLANUEVA a parlé justement « d’un travail de tissage » (FDLM, Recherches et applications, Juillet 2000, p. 160), des différentes manières d’être, ce qui n’est pas toujours simple, notamment quand on a affaire aux jeunes apprenants d’école supérieure pour qui apprendre une langue étrangère, cela veut dire l’utiliser en situation quotidienne.

 

MONDIALISATION ET CRISE DES PÉDAGOGIES

 

Dans ce contexte de variété de procédures didactiques parfois répétitives, je reste de l’opinion que c’est sur le terrain, dans les classes, que se joue la véracité d’une stratégie didactique et éducative. Quand on travaille sur l’éducation on ne peut asséner des vérités, car tout projet éducatif est valable à condition qu’il respecte les besoins premiers de l’apprenant et que, compte tenu de l’innovation, il permette de soutenir l’évolution intellectuelle et morale de l’élève / consommateur.

Dans un contexte de mondialisation, il est indispensable quand même que notre pratique didactique s’adonne à faire réfléchir et à débattre sur les grandes questions de la vie collective, qu’elles soient de nature philosophique, scientifique ou littéraire. La confrontation critique semble essentielle à la lumière de la crise des pédagogies. Le jeune connaît les conflits et les transformations concernant son corps et ses capacités intellectuelles. Il va explorer un nouveau champ relationnel qui va lui renforcer ses exigences pulsionnelles. C’est l’époque des manifestations imprévues, agressives, brusques. Il se recherche une identification qui passe par la parole, par les disputes, dans la famille et à l’école. La réponse des enseignants et de l’école est alors fondamentale, décisive pour la bonne réussite de toute pratique en classe.

 

L’APPRENTISSAGE DU DÉBAT

 

Heureusement, nous vivons dans une société plurielle, dans l’ère de la communication où règne souveraine la volonté d’écouter et de confronter les différents points de vue. Les professeurs de langue savent très bien qu’il faut davantage apprendre à comprendre les thèses d’autrui à tel point qu’ils travaillent sur les textes écrits et oraux, littéraires et non, pour atteindre à une compétence langagière et textuelle solide et stable, capable d’entrer comme dit BARTHES dans « la cuisine du sens ». Les professeurs sont persuadés qu’au cours de sa formation, l’apprenant doit être à même d’aborder n’importe quelle situation communicative pour se créer une piste autonome d’analyse et de critique. Ça commence à petits pas au collège pour se renforcer dans le secondaire, moment-clé où les jeunes sont plus disposés à prendre position, à produire une opinion et à la défendre. À partir de cet âge, il faut que tout système éducatif consacre une place plus grande à ce processus méthodologique qui privilégie la réflexion et le débat. L’apprentissage du débat devient donc une opération didactique importante d’autant plus qu’on la situe dans un contexte social et culturel se dégradant, duquel l’école, en tant que lieu de formation et d’éducation, ne peut se passer. Les transgressions quotidiennement manifestées finissent par jeter l’élève et le professeur dans la confusion et ce qui est pis dans le discrédit d’une école qui reste quand même l’unique chance contre l’ignorance et les incivilités de toute sorte.

 

QUELLES COMPÉTENCES À DÉVELOPPER ?

 

Or je pense que c’est à l’enseignant de mettre en œuvre tous les dispositifs qu’il connaît, toutes les activités qu’il a expérimentées, pour faciliter l’élève à accéder cette prise de conscience. Il s’agit de mettre en place une sorte de dynamisme intentionnel et créatif qui le conduira à exprimer son propre système de valeurs et à se confronter avec les autres. Pour ce faire, il est indispensable que les élèves apprennent les mécanismes qui règlent les échanges interactionnels car l’apprentissage du débat passe par les pratiques de négociation et de collaboration entre les deux interlocuteurs, à savoir : les élèves doivent respecter le sujet de la conversation et s’appuyer sur leurs intérêts sans exprimer des positions rigides.

Dans la classe, il est préalable lors de toute activité scolaire, qu’elle soit écrite ou orale, d’instaurer un climat de coopération et non de compétition. Le travail en équipe l’emporte sur toute attribution des notes, car l’objectif est celui de faire participer tous les élèves, même les plus défavorisés, pour s’opposer à toute forme de rejet ou pis à tout risque d’expression d’appréciations dévalorisantes qui pourraient perturber la participation à la libre confrontation d’idées. Cette pratique s’avère porteuse de bons résultats sur le plan interactionnel car elle est une occasion pour que s’établisse une relation plus étroite entre élèves / élèves et élèves / enseignants.

C’est une phase extrêmement délicate car il s’agit d’entrer en relation avec les positions et cultures des autres, notamment avec des parcours logiques et mentaux absolument intériorisés par les deux parties. À ce propos, je crois pouvoir affirmer, sur la base de l’expérience, que ce n’est pas vrai du tout que l’apprenant – interlocuteur – n’ait pas d’itinéraire à suivre. Dans la plupart des cas, on a affaire à des jeunes qui ont consolidé un processus de réflexion assez respectable et qui, dans la phase d’exposition de leur thèse, mettent en place, d’une manière consciente et logique, une compétence discursive et stratégique cohérente et linéaire. L’interaction est ainsi très bien facilitée et représente dans la classe un moment vraiment satisfaisant dès que l’apprenant prend conscience de sa maturité et de son autonomie. Il sait qu’il peut donner une représentation personnelle du monde, des choses, de la société.

 

En guise de conclusion, on ne peut que signaler un retard, une sorte de dysfonctionnement réel dont les enseignants ne sont pas du tout responsables. Chacun est libre de penser que la raison économique doit l’emporter sur la pratique enseignante. Mais pour ce qui concerne la machine éducative et le mal-vivre des enseignants et des élèves, cette prise de position là est tout à fait perdante car le pluralisme appliqué à l’éducation est un bien incontestable, une valeur à défendre.

Poster un commentaire

Classé dans QUE SAVOIR ?

EDUCATION / FORMATION ET SAVOIRS : LA FORMATION TOUT AU LONG DE LA VIE… OU LA RUPTURE DANS LA CONTINUITE par Michel LUGNIER

Au-delà des multiples réformes qui affectent l’appareil de formation dans sa dimension sectorielle, et du sentiment premier d’improvisation qui peut légitimement saisir le « non initié » comme le « praticien éclairé », un consensus politique fort se dégage aujourd’hui autour d’un nouveau modèle de formation, dont l’émergence remet en cause fondamentalement l’exception française en la matière.

Les années quatre-vingt-dix ont, du point de vue de la formation en général et de la formation professionnelle en particulier, été riches en réflexions et propositions de tous ordres. Sans être exhaustif, qu’il s’agisse de la loi quinquennale sur l’emploi relative au Travail, à l’Emploi et à la Formation Professionnelle (1993), du livre blanc de la Communauté européenne consacré en 1995 à « la formation tout au long de la vie » ou encore du rapport MAROIS sur l’enseignement professionnel (1998), les multiples travaux qui lui ont été consacrés au cours de cette période soulignent la difficulté à concevoir, aujourd’hui encore, un enseignement capable d’intégrer les aspects théoriques et pratiques d’une formation qui se veut en phase avec les évolutions technologiques les plus récentes.

Tour à tour appréhendée aux différentes périodes de l’histoire comme un moyen de contrôle de la classe ouvrière et/ou de la jeunesse, un levier du développement économique et social ou encore un instrument de lutte contre l’échec scolaire, la multiplicité des objectifs assignés à la formation professionnelle a largement contribué à alimenter les nombreuses critiques dont elle a été, et est encore, régulièrement l’objet. Les débats autour de la définition des contenus de formation et la difficulté à envisager de manière satisfaisante le partage des responsabilités entre l’institution scolaire et les milieux professionnels sont à cet égard emblématiques des tensions et des enjeux que recouvre le contrôle d’un enseignement né hors de l’école et aujourd’hui constitutif d’une politique qui entend conduire « 80 % » d’une classe d’âge au niveau du baccalauréat.

Asservie dans un premier temps à l’emploi par les nécessités d’une industrie naissante au XIXème siècle (PELPEL, TROGER, 1993), et circonscrite à l’origine à la seule formation des élites, la formation professionnelle a ainsi, pour des raisons à la fois sociales et économiques, intégré le champ des politiques publiques, mettant ainsi un terme au libéralisme qui a longtemps caractérisé l’action de l’État dans ce domaine (CHARLOT, FIGEAT, 1987). Mais alors qu’avait dominé jusqu’au début des années quatre-vingt le paradigme d’un État centralisateur, seul garant de l’efficacité du système d’enseignement et de sa justice, la recherche d’une dynamique territoriale fondée sur la définition du niveau le plus pertinent quant à l’adaptation au plan local de la politique éducative qui se dessine à l’époque, a posé en des termes nouveaux les enjeux et les problématiques qui accompagnent un enseignement aujourd’hui présenté comme la réponse la plus adaptée aux difficultés d’insertion et aux risques d’exclusion sociale des jeunes.

Parce qu’elles relèvent tout à la fois des champs politique, social et culturel, et qu’à cet aspect multidimensionnel se conjugue l’intervention de nombreux acteurs aux intérêts difficiles à concilier, les finalités de la formation professionnelle ne cessent ainsi d’être revisitées, soumettant in fine les « praticiens » comme les « usagers » à des injonctions parfois contradictoires au regard d’une réalité qui ne se laisse en outre jamais saisir dans sa globalité. Le sentiment de confusion qui peut alors légitimement naître à la lecture des innombrables réformes qui se succèdent à un rythme soutenu, ne saurait pourtant occulter l’extraordinaire et paradoxale continuité des évolutions structurelles qui affectent – et pour la plupart d’entre elles par la périphérie – le système éducatif dans son ensemble, et qui tendent progressivement à l’émergence d’un nouveau modèle pour la formation.

Afin d’illustrer ce propos, nous nous proposons de présenter, ici, les résultats d’un travail qui s’est plus particulièrement attaché à identifier les logiques qui ont animé l’appareil de formation initiale dans sa dimension spatiale (planification) au lendemain du vote de la loi quinquennale sur l’Emploi de 1993, loi introduite par le gouvernement de l’époque comme « devant jeter les bases d’une transformation profonde de l’organisation du travail et de la formation ».

Parce qu’il ne saurait s’agir toutefois, dans le cadre de cet article, de développer l’intégralité du travail effectué, nous formulerons en guise de présentation des résultats obtenus, quelques éléments de réponse aux quatre questions fondamentales auxquelles il nous semble que la formation professionnelle doit aujourd’hui, plus qu’hier, répondre.

 

FORMER QUI ?

 

En imposant la mise en œuvre des conditions nécessaires à la qualification pour tous, entendue comme devant améliorer l’insertion professionnelle des jeunes, la loi quinquennale dans son article 54 prolonge le mouvement initié en 1982 avec les mesures destinées à assurer aux jeunes de seize à dix-huit ans une qualification professionnelle et à faciliter leur insertion sociale. L’élargissement de la mission d’insertion de l’Éducation nationale relève désormais de la démarche initiée par le Plan régional de développement des formations professionnelles des jeunes (PRDFPJ). Ce principe a visiblement conduit, et vraisemblablement dans l’optique d’offrir une qualification aux jeunes les plus en difficulté sur le plan scolaire, à la réhabilitation en milieu scolaire du CAP dont la relative « adéquation » au contexte économique local l’oppose au développement de formations plus polyvalentes caractéristiques des secteurs dont les flux de formés sont quantitativement les plus importants.

Malgré les différents sens qui sont attribués au CAP (certification de secours pour le BEP, diplôme de promotion sociale en formation continue, première certification…), la multitude des candidats et leur diversité d’origine, conforté aujourd’hui par le souci de l’appareil public de permettre à tout jeune d’accéder à la qualification, replacent ainsi ce diplôme dans les questions d’actualité.

Toutefois, c’est paradoxalement au moment où la propension à entreprendre des études de plus en plus longues se renforce que la loi quinquennale affirme que « Tout jeune doit se voir offrir, avant sa sortie du système éducatif et quel que soit le niveau d’enseignement qu’il a atteint, une formation professionnelle« . Présentée comme la voie la plus adaptée pour l’accès à l’emploi, la formation professionnelle généralisée à des jeunes dont certains peuvent en outre faire état d’un passage dans l’enseignement supérieur interroge quant à sa faisabilité. De ce point de vue, l’individualisation de la formation et la reconnaissance partielle des cursus apparaissent dans la plupart des discours politiques et sous diverses formes comme autant de moyens de nature à lever tout au moins partiellement la difficulté. Les responsables en charge des questions liées à l’accès à la qualification se trouvent donc aujourd’hui en situation de devoir d’une part éviter l’écueil d’un brouillage des finalités des certifications qui nécessitent à l’instar du CAP de s’adapter à un public en proie aux difficultés scolaires, sans pour autant perdre les exigences professionnelles qui lui sont reconnues, d’autre part lutter contre un principe d’action qui tend par un renforcement systématique des normes scolaires à écarter les certifications les plus élevées de leur finalité originale d’insertion professionnelle.

Parce que l’article 54 de la loi quinquennale implique une redéfinition des diplômes professionnels, que l’on sait – au regard de l’histoire de l’enseignement technique en France – non seulement génératrice de conflits mais également à l’origine de compromis fragiles, cette disposition pose en des termes nouveaux et avec acuité le problème de la nature même des contenus de formation.

 

FORMER À QUOI ?

 

En réponse aux difficultés d’insertion professionnelle rencontrées par les jeunes, et devant le risque d’une « fracture sociale » que constitue l’exclusion d’un grand nombre d’entre eux, l’éducation et la formation sont aujourd’hui partout présentées comme les ultimes recours au problème de l’emploi. Cependant, l’obstacle que constitue la production et la synthèse d’une analyse fine de la relation formation-emploi, et la pression d’une demande sociale forte à destination d’une poursuite d’études plaident en faveur de la définition d’un socle minimal de formation de plus en plus élevé. Il paraît en effet aujourd’hui difficile de lutter contre la pression d’une demande éducative qui tend à privilégier la poursuite d’études au détriment des probabilités d’insertion dans l’emploi. Aussi les décideurs en régions tendent-ils à inscrire globalement l’évolution de l’enseignement professionnel dans la continuité du mouvement initié au début des années quatre-vingt en faveur d’une élévation générale du niveau de formation.

Non seulement ce principe d’action répond au souci de poursuite d’études des familles, et par conséquent d’électeurs potentiels auxquels les élus sont sensibles, mais il offre en outre le double avantage de prendre en compte les intérêts des branches professionnelles les plus puissantes tout en répondant aux préoccupations des établissements soucieux d’offrir au plan local une offre de formation cohérente, complète voire prestigieuse (CARO, HILLAU, 1997). Ce mouvement commun à l’ensemble des régions, y compris désormais dans sa dimension sectorielle (filière de formation et/ou secteurs de l’activité économique), ne semble donc pas avoir été profondément affecté par le nouveau cadre législatif défini par la loi quinquennale de 1993.

Toutefois, bien que l’implantation d’une nouvelle formation professionnelle s’inscrive très largement en réponse à une demande sociale forte pour une poursuite d’études, en retour l’absence d’une telle demande donne lieu à des pratiques pour le moins très différentes d’un secteur de l’activité économique à l’autre ou encore d’un niveau de qualification à l’autre. Dès lors que l’on quitte les secteurs qui drainent l’essentiel de la demande, et pour lesquels le recours au baccalauréat professionnel apparaît comme un élément de développement important, d’autres logiques animent la structuration de l’offre de formation. La recherche d’une articulation cohérente entre la formation initiale et la formation continue, le maintien d’un niveau V pertinent conjointement au développement du niveau IV ou encore la volonté de modifier le seuil d’attractivité de certains secteurs sont autant d’éléments qui suggèrent l’existence de pratiques très différenciées en matière de gestion de la main d’œuvre.

De façon plus fondamentale, la diversité de ces situations illustre la permanence de la scission idéologique sur laquelle repose la formation professionnelle initiale en France pour laquelle l’opposition plus que la complémentarité caractérise aujourd’hui encore l’articulation entre culture professionnelle et culture générale. Bien que la nécessité pour de futurs salariés d’avoir un bon niveau de formation générale recueille un large consensus, les modalités de la mise en œuvre d’un tel objectif sont loin d’être homogènes. Néanmoins, les clivages institutionnels entre les filières sous statut scolaire et sous contrat d’apprentissage tendent aujourd’hui à se réduire au regard des logiques de développement qui animent les secteurs de l’activité économique quantitativement les plus importants et pour lesquels des considérations d’ordre « démographique » apparaissent, quelle que soit la filière observée, plus à même d’expliquer l’évolution de l’offre de formation.

Faute de parvenir à identifier clairement les besoins des entreprises aux différents niveaux de qualification, les acteurs en région tendent aujourd’hui, tout comme l’État hier, à privilégier la poursuite du mouvement général « vers le haut » dont le corollaire réside dans la part sans cesse croissante des enseignements généraux.

Le renforcement de la culture générale apparaît ainsi dans la plupart des discours politiques comme un facteur déterminant dans l’adaptation à l’emploi susceptible de développer l’autonomie et la prise d’initiative que la souplesse, le développement de coopérations en réseau ou du travail en équipes aujourd’hui induisent. Parce que ces compétences autrefois connexes aux savoir-faire tendent à supplanter les contenus techniques, la spécialité du diplôme apparaît alors moins prégnante. L’essentiel réside en effet dans la détention des compétences « comportementales souhaitées » qu’une formation générale obtenue de haut niveau est censée conférer. « Dans le monde moderne, la connaissance au sens large peut alors être définie comme une accumulation de savoirs fondamentaux, de savoirs techniques et d’aptitudes sociales. C’est une combinaison équilibrée de ces savoirs, acquis dans le système d’enseignement formel, dans la famille, dans l’entreprise, par divers réseaux d’information, qui donne la connaissance générale et transférable la plus propice à l’emploi« . Dans ce contexte, la formation tout au long de la vie aujourd’hui résonne comme un credo.

 

FORMER QUAND ?

 

Ce concept de formation « tout au long de la vie » n’est pourtant pas nouveau. CONDORCET ne déclarait-il pas en 1792 devant l’Assemblée nationale « Nous avons observé, enfin, que l’instruction ne devait pas abandonner les individus au moment où ils sortent des écoles, qu’elle devait embrasser tous les âges« . L’adhésion des différents acteurs autour d’une formation « tout au long de la vie » est néanmoins importante. Elle n’est toutefois pas totale. Parce qu’il s’agit implicitement d’adapter les salariés à une grande flexibilité, synonyme de précarité, certains y voient en effet la marque d’une conception par trop libérale. Le droit à la formation pouvant se transformer à terme pour le salarié en une contrainte extrêmement forte.

Quoi qu’il en soit, les réflexions relatives à la qualification, tendent désormais à la définir moins comme un état que comme un processus (OURLIAC, 1997). La notion de parcours professionnel qui résulte d’une telle conception de la formation figure expressément et sous diverses formes dans les textes soumis à l’approbation des assemblées régionales : « faciliter une plus grande individualisation des itinéraires au sein du système éducatif ; favoriser un accès progressif à l’autonomie professionnelle ; améliorer la transition entre les études et l’emploi…« .

La mise en unités de certification des diplômes professionnels constitue là encore une étape vers une adaptation à une certification ou une validation de la qualification professionnelle quel qu’en soit le mode d’acquisition (sous statut scolaire, par l’apprentissage, la formation continue, par l’exercice d’une profession). Sous-tendus par une conception unifiée du système de formation, les débats relatifs à l’élaboration du PRDFPJ ou à défaut à la révision du schéma des formations s’attachent à rendre cette démarche opérationnelle. Dans l’absolu et de façon schématique, il s’agit de décloisonner les segments de l’appareil de formation afin de compléter la formation générale et technologique de base, assurée essentiellement par le système éducatif, par une formation professionnelle en alternance sous contrat de travail elle-même renforcée au cours des premières années de l’emploi par des séquences de formation continue destinées à offrir les perspectives d’adaptation et de promotion au sein de l’entreprise.

Le décloisonnement des dispositifs de formation qui en résulte, censé s’effectuer par l’instauration de passerelles entre les différents types d’enseignements mais aussi par une multiplication des voies d’accès à la qualification nécessite alors la reconnaissance des caractéristiques de chacun des segments de l’appareil de formation. Pour rendre opérationnel le concept d’une formation « tout au long de la vie », il convient alors de dépasser un raisonnement en termes de filières de formation conçues comme des cursus linéaires effectués exclusivement au sein d’un même dispositif de formation voire d’un même établissement, pourtant très caractéristique de la période que nous avons observée, afin de permettre la diversification des modalités de formation et d’accès à la qualification qui en est le corollaire.

 

FORMER OÙ ?

 

La structuration de l’offre de formation repose en fait tout à la fois sur une logique de gestion des flux destinée à permettre au plus grand nombre l’accès à une poursuite d’études et sur une volonté forte et générale de doter chaque établissement d’une identité professionnelle lisible au plan local. La nécessité de penser l’implantation d’une nouvelle formation sur le long terme a ainsi conduit les décideurs à l’appuyer sur les caractéristiques de l’offre existante et sur l’existence d’une demande sociale forte. Ces deux éléments apparaissent ainsi déterminants dans les choix opérés quant à l’élaboration de la carte des formations. Bien que les CFA et les établissements scolaires se distinguent nettement quant aux niveaux de qualification privilégiés et aux secteurs de l’activité économique respectivement investis, rares sont les établissements qui ont obtenu la création d’une formation totalement déconnectée des spécialités antérieurement et localement offertes. L’implantation d’une nouvelle formation est ainsi venue, tantôt finaliser (fonction propédeutique) ou renforcer (formations connexes) une offre déjà existante en milieu scolaire, tantôt contribuer à la constitution de filières complètes pour ce qui concerne l’apprentissage. En d’autres termes, l’existence d’un « vivier » dans un cas (professionnel et/ou technologique) et/ou sa création concomitante à la nouvelle implantation dans l’autre expliquent pour une part importante la relation que l’on observe entre l’ouverture d’une nouvelle formation professionnelle et le choix de l’établissement d’accueil.

Une telle logique – qui sous-tend aujourd’hui le lycée des métiers – offre l’avantage de minimiser le coût et de réduire le risque politique liés à l’ouverture d’une nouvelle formation professionnelle, en permettant en particulier une justification apparemment « objective » de la décision. Elle porte cependant en elle le risque de « figer » la carte des formations. Contrainte par la nécessité de s’appuyer sur des compromis fragiles entre le développement de pôles de compétence et la recherche d’équilibres dans l’aménagement du territoire, l’articulation d’une logique de développement de l’offre locale de formation avec un principe égalitaire d’aménagement du territoire se pose alors clairement.

En répondant à ces quatre questions qui touchent aux finalités mêmes de la formation professionnelle, la validation des hypothèses formulées à l’endroit des logiques qui semblent animer la structuration de l’offre de formation professionnelle nous laisse entrevoir la nature et le sens des profondes mutations qui affectent une formation présentée comme la plus adaptée au problème de l’emploi et de l’exclusion.

Si la poursuite et la généralisation du mouvement « vers le haut » que l’on observe s’entend comme la continuation de la politique définie et mise en œuvre antérieurement par l’État, ce mouvement s’en distingue aujourd’hui, par une volonté politique forte de créer les conditions d’une diversification des voies d’accès à la qualification. Le développement de l’alternance en général et de l’apprentissage en particulier ou encore celui de l’enseignement privé est à cet égard emblématique d’un processus de diversification dont le corollaire repose sur la recherche des modalités nécessaires au décloisonnement des multiples filières de formation (scolaire, apprentissage, continue) entendues comme indispensables à la réalisation des parcours de formation individualisés. Un tel constat pose alors une double question :

1. La première renvoie à l’articulation entre les savoirs professionnels et les savoirs plus abstraits, et plus globalement à la définition d’un socle commun minimum de formation qui, parce qu’il ne cesse de s’élever – mouvement profond de l’histoire – porte en lui l’expression d’une lente mais inexorable dérive des finalités des diplômes professionnels.

2. La seconde interroge quant aux effets à terme d’une logique de développement de l’offre locale avec un principe égalitaire d’aménagement du territoire. Si la logique de spécialisation des établissements que l’on observe – laquelle sous-tend aujourd’hui le lycée des métiers – offre le triple avantage d’améliorer la lisibilité de l’offre locale tout en contribuant à la mise en œuvre des conditions nécessaires à une poursuite d’études au sein d’une filière spécifique de formation et ce, dans une perspective d’optimisation des équipements et de réduction des coûts, cette logique, parce qu’elle tend à figer la carte des formations, pose en termes nouveaux les perspectives d’avenir des établissements qui ne pourront se doter d’une telle identité. Le risque de renforcer les inégalités entre établissements, et par conséquent les inégalités sociales d’accès à la formation, apparaît dès lors d’autant plus important que devant la préférence des jeunes et des familles à l’endroit d’une poursuite d’études l’objectif à l’avenir sera moins de créer de nouvelles structures que d’attirer vers celles qui existent des jeunes dont le nombre devrait tendre à diminuer.

La poursuite et l’accentuation d’un tel processus qui combine un mouvement « vers le haut » avec un processus d’autonomisation des établissements, parce qu’il repose sur une logique qui fait de la gestion des flux un élément central de la politique éducative, confère dès lors en amont d’une part, aux réformes du premier cycle, et en aval d’autre part, à celles du tertiaire un enjeu politique manifeste au regard d’une maîtrise des flux de jeunes en formation dans le cadre d’une politique sociale et économique définie à un niveau infra national.

Dans un cas, la nécessité de répondre à la diversité des élèves par une diversité des cursus, et la recherche des conditions d’une réelle reconnaissance des différentes voies de la réussite peuvent alors s’associer pour rompre avec une politique d’unification des structures qui a jusque-là sous-tendu l’organisation du premier cycle de l’enseignement secondaire.

Dans l’autre, ce processus d’autonomisation mis en lumière dans l’enseignement secondaire professionnel est à articuler avec la politique initiée en 1989, approfondie et relancée en 1998, en vue de contractualiser les rapports entre L’État, les partenaires économiques et les établissements d’enseignement supérieur, et ce sur la base d’un projet définissant les éléments d’une stratégie d’un développement réfléchi et maîtrisé au plan local.

Dans un contexte caractérisé par l’ouverture à l’internationale (mondialisation, construction de l’Europe), la croissance d’une demande pour une poursuite d’études toujours plus longues, et le risque d’une « fracture sociale » entre les exclus de la formation et les autres, les changements profonds dans l’appréhension des problèmes de formation que l’on pressent, symbolisé entre autres par le concept d’une formation « tout au long de la vie », laissent à penser que nous sommes à l’aube d’un modèle nouveau pour la formation en général dont l’émergence nous impose de réfléchir sur les inflexions inéluctables qui devront être données à l’exception française en matière de formation.

Gageons alors que cette transformation qu’il n’est pas exagéré de qualifier de « révolution » saura faire de la formation professionnelle un élément constitutif majeur d’une politique publique destinée à « offrir à tous les individus de l’espèce humaine les moyens de pourvoir à leurs besoins, d’assurer leur bien-être, de connaître et d’exercer leurs droits, d’entendre et de remplir leurs devoirs » afin d’établir entre les citoyens une égalité de fait et de rendre réelle l’égalité politique reconnue par la loi.

Éléments bibliographiques :

AGULHON C., « Décentralisation et recomposition de l’offre de formation dans les filières techniques et professionnelles », Éducation Formation, n°3, pp. 549-564, 1994.

BEL M., « Quelle formation pour les territoires et quels territoires pour la formation ? », Actualité de la formation permanente, pp. 50-55, 2000.

BRUCY G., ROPE F., Suffit-il de démocratiser ?, Paris, Éditeurs de l’atelier, 2000.

CHARLOT B., FIGEAT M., Histoire de la formation des Ouvriers 1789-1984, Paris, Minerve, 1985.

CHARLOT B., BEILLEROT J., La construction des politiques d’éducation et de formation, Paris, PUF, 1995.

DURAND-PRINBORGNE C., L’Éducation nationale, une culture un service, Paris, Nathan Université, 1994.

DUTERCQ Y., Politiques éducatives territoriales et évaluations du système éducatif, Paris, INRP, 1997.

HENRIOT-VAN ZANTEN A., Les transformations du système éducatif. Acteurs et politiques, Paris, L’Harmattan, 1993.

HILLAU B., Décentralisation de la formation, Marché du travail, institutions, acteurs, Marseille, Céreq, n°64.

LARCENEUX A., « Mécanisme de décision et contexte local », Formation Emploi, n°59, 1997.

LEGRAND L., Le système E l’école… de réformes en projets, Paris, Denoël, 1994.

MULLER P., Les politiques publiques, Paris, PUF, 1994.

RICHARD A., « Diversité des enjeux et des pratiques, Les rapports entre académie et région », Formation Emploi, n°59, 1997.

SOLAUX G., Le baccalauréat, Paris, La Documentation française, 1995.

TANGUY L., L’introuvable relation formation / emploi, Paris, La Documentation française, 1986.

Poster un commentaire

Classé dans QUE SAVOIR ?

MacroECONOMIE / DU SAVOIR AU SAVOIR : DES SAVOIRS « GIGOGNES » ! par Olivier BRIFFAUT

Attention ! Tout travail de recherche peut conduire la réflexion toujours plus loin dans les méandres du savoir ! Chercher à savoir implique de savoir a priori… Commencer à savoir implique d’accéder à d’autres savoirs « gigognes »… infiniment ?

Intéressons-nous par exemple au problème du chômage (comme nous l’avons fait dans notre Thèse de Doctorat) : n’est-il pas inhérent à l’organisation économique (capitaliste et monétaire, bien que la juxtaposition de ces deux termes forme une redondance) ? Générons, si possible, une analyse cohérente et exhaustive du fonctionnement spontané – ordonné mais connaissant des dysfonctionnements – de l’économie. Or, deux points fondamentaux paraissent – assez tôt dans le travail de recherche – conduire les analyses économiques courantes dans l’impasse : la séparation dichotomique des grandeurs réelles et monétaires, et, en sus, celle de l’offre et de la demande globales (infirmant l’identité de Jean-Baptiste SAY)…

Le travail de recherche englobe ainsi logiquement plusieurs thèmes – exposés dans nombre de « papiers » macroéconomiques publiés dans ces pages – à commencer sans doute par l’analyse des émissions monétaires, c’est-à-dire la façon dont est introduite la monnaie dans l’économie : tous les revenus, salariaux et non salariaux, ne seraient-ils pas créés, transmis et détruits par les émissions (monétaires et réelles) des salaires ? On peut ainsi montrer l’inexistence d’une juxtaposition des sphères réelle et monétaire.

Mais cela ne peut suffire. Le mode de production capitaliste se caractérise, en effet, dans le cadre nécessairement monétaire, par la présence au sein de toute activité productive du capital et de son accumulation : le cœur de l’explication de la Crise se situe ainsi dans l’analyse de la nature et de la structure du capital, concept qui, pour être bien saisi, peut être confronté à la définition de la notion de travail humain.

Allons plus avant dans l’exposé de la démarche scientifique envisagée, constituée de recherche de savoirs imbriqués.

Il paraît nécessaire d’analyser et de définir le concept d' »économie monétaire de production » pour parvenir à l’analyse de la nature et de la structure du capital : pourquoi ? L’examen des théories du capital implique sans doute une profonde révision de la construction théorique macroéconomique même. Il s’agit dès lors de poser progressivement les fondements de l’analyse de la nature et de la structure du capital en procédant par étapes. On peut ainsi montrer que le concept de capital ne peut être saisi qu’au sein de l’économie monétaire de production bien définie. Ce faisant, peuvent être relevées les erreurs théoriques commises jusqu’alors. Peut dès lors être envisagé l’enchaînement des idées en huit points, huit « poupées russes » du savoir :

(1) Les théories de la valeur dégagées de l’histoire de l’analyse et des théories économiques induisent des théories du capital que l’on peut rejeter, sauf à parvenir à synthétiser les apports respectifs des théories de la « valeur-utilité » – développée essentiellement par les auteurs néo-classiques – comme de la « valeur-travail » – dont Karl MARX fit le socle de toute son analyse du capitalisme -. Doit être ainsi inévitablement abordé le problème – préalable à toute étude du capital – d’une mesure objective des biens. Or, les théories de la valeur jusqu’alors développées, soit introduisent la monnaie par le biais des salaires, certes, mais ne parviennent pas à briser le carcan analytique d’une mesure dichotomique – ce qui est particulièrement apparent chez HICKS -, soit tentent d’homogénéiser les biens, avec plus ou moins de succès, par le travail, source de toute valeur (cette idée ayant été conceptualisée par MARX). Retenons cependant la définition de la notion de « quantum de travail », temps de travail nécessaire à la production de quelque bien ou service. Mais le travail humain ne peut en aucun cas être considéré comme une substance incorporée dans les biens. RICARDO, en dépit de sa définition de quantités relatives de travail incorporé, n’a pu infirmer la notion de « travail-marchandise »(1). MARX a tenté, lui aussi, d’écarter le travail de l’ensemble des marchandises en ayant recours au concept de « force de travail », le travail demeurant malgré cela un facteur matériel (la force de travail est définie comme la mise en oeuvre de capacités matérielles, intellectuelles et physiques(2)). Louable est toutefois l’effort de l’auteur lorsqu’il se refuse à identifier les salaires au prix du travail, effort non poursuivi (on peut le signaler au passage !) par les théoriciens contemporains dits « de la régulation »(3). S’il paraît par conséquent difficile d’éviter le problème d’une conception substantielle du travail, donc de la valeur (d’usage) – alors que la valeur d’usage, lien purement « économique » entre l’objet et l’homme, permet de passer des objets (physiques) aux biens (économiques) – l’analyse menée par MARX quant à la valeur d’échange et la notion même d' »échange entre (pouvoirs) équivalents » nous permet d’entrevoir deux sphères à bien distinguer au sein de l’économie : la production et la circulation.

(2) Approfondir la notion de travail s’impose alors comme une chose incontournable pour parvenir à comprendre ce qu’est la production d’une part, mais aussi pour dégager progressivement – par confrontation analytique des deux notions – la nature profonde du capital. Il s’agit dès lors de montrer que la production aboutit à un pouvoir d’appropriation économique sur les biens, qu’exprime la valeur bien définie, c’est-à-dire émanant exclusivement du travail humain. La distinction établie dès le XIXème siècle entre la valeur et la richesse(4) se trouve ici affinée : la richesse – non produite mais appropriée – fait l’objet de transformations physiques(5), sous-entendant implicitement la notion d’utilité, alors que la valeur – constituée de droits de propriété produits – fait l’objet d’une création purement économique. Bien que nécessitant synthétiquement les notions d' »utilité » et de « travail », la valeur n’est induite que du seul travail humain. Ce dernier constitue l’unique coût de production et génère, seul, la valeur d’échange de tout bien, ce que révèle l’analyse du cadre spatio-temporel de la production. D’un point de vue strictement économique, retenons, à cet égard, que la production n’est pas une simple transformation, ni un simple déplacement dans l’espace : la production est, ce que nous pourrions appeler, un « mouvement productif d’espace » : elle crée son espace, le produit, dans son mouvement même (le lien entre la production et son produit étant indépendant du temps). Retenons également corollairement la notion de « quantum de temps » : toute production n’existe qu’un instant au sens strict, un point indivisible du temps continu ; il ne peut exister corollairement qu’une et une seule production par période temporelle indivisible. La production est donc une action dont l’inertie dans le continuum est nulle : la production quantise le temps (elle saisit d’un seul coup un morceau de temps continu)(6). Le temps quantique fait écho au « temps du projet » que d’aucuns ont défini(7)… Soulignons que l’étude de la conception du temps en (macro)économie est primordiale, tant il est vrai qu’elle constitue un point d’achoppement de nombre de théories… Mais il est un autre point d’achoppement à circonscrire : la monnaie…

(3) Dès lors, pouvons-nous montrer qu’il est possible de parvenir à une définition synthétique des deux concepts nécessaires à une cohérente compréhension de la nature du capital, à savoir la production et la monnaie. Se pose ainsi le cadre d’analyse du capital : l’économie monétaire de production, notion pré-définie par KEYNES. Sachant que nous ne pouvons corroborer les théories du capital tant autrichienne que marxienne parce que, d’une part, la monnaie n’est conçue que matériellement(8) (c’est ce qu’implique notamment l' »échange entre équivalents »), et, d’autre part, parce que les théories n’ont pu – malgré les efforts notoires de BÖHM-BAWERK – correctement intégrer le temps (nous faisons ici allusion aux théories fondées sur les « détours de production »), l’analyse de la macroéconomie peut se poursuivre en prenant appui sur les deux notions de « quantum de travail » et de « quantum de temps » précédemment dégagées. L’étude affinée de l’introduction du temps au sein de l’analyse économique appelle logiquement une conception quantique de la production. On peut montrer ainsi que la production est à la fois ondulatoire et corpusculaire : le produit est, d’un point de vue purement physique, le résultat d’une transformation matérielle que l’on situe de toute évidence dans le temps continu ; il n’en demeure pas moins que c’est un « objet » nouveau, instantanément créé dans le temps quantique, par le seul travail de l’homme, la production étant définie comme la réalisation d’un projet par lequel la matière (et l’énergie) acquier(en)t une forme utile qui n’existait pas auparavant. Le caractère immatériel de la monnaie peut être rigoureusement établi conjointement au rôle des banques et des entreprises dans le cadre des émissions monétaires et du paiement des salaires – les deux faces d’une même réalité permettant d’établir la stricte équivalence du produit et de la monnaie, objets d’un échange absolu, conformément à l’idée keynésienne de mesure du produit national par les unités de salaires(9). L’économie réelle et l’économie monétaire intégrées, le problème de la mesure homogène des biens se trouve résolu. Et le revenu (quantique) peut être défini : il est créé par le paiement des salaires et détruit par leur dépense, ces deux opérations étant les deux aspects complémentaires de la même émission réelle et formant ainsi la même opération de création-destruction(10). L’analyse quantique de la production et de la monnaie (de l’économie monétaire de production), permet l’étude de la nature et de la structure du capital, conformément à la méthode d’analyse prodiguée par MARX, l’étude du capital nécessitant d’abord l’étude de la marchandise (bien ou service économique).

(4) Il convient à ce stade de l’analyse de définir tout d’abord ce qu’est le « capital-temps » : transcription du revenu du temps quantique dans le continuum (l’épargne est un capital) ; nous trouvons ainsi le revenu dans le temps quantique et le capital dans le temps continu. Le revenu, émis grâce au travail humain, n’est donc issu d’aucun capital : c’est le capital qui procède du revenu. Le revenu n’est donc pas – comme le prétend la théorie néo-classique – dérivé du capital, comme un flux d’un stock ; on pourrait définir plutôt corrélativement le capital comme un « stock quantique ». Le capital-temps est la conversion du revenu actuel (détruit) en revenu futur (créé, reconstitué) : le capital est le temps (continu) séparant ces deux mutations de sens contraire, seule la monnaie bancaire (immatérielle) permettant la constitution de ce pont entre le présent et l’avenir. Le capital est donc un droit de créance sur les banques détenu par les titulaires de revenus. C’est l’association de l’épargne monétaire et de l’épargne réelle qui permet l’existence d’un capital net. Ce que nous appelons « capital financier » (c’est redondant ! Il est plutôt monétaire) peut être défini par les droits de propriété détenus par les titulaires de revenus sur le produit (les titres) : il se substitue au revenu monétaire lors de la constitution de l’épargne (le produit étant alors stocké et formant le capital réel), l’opération inverse se produisant quand l’épargne fait place à la consommation. Précisons que la conception quantique de la monnaie impose, d’une part, l’intégration du capital réel et du capital monétaire – conférant au capital-temps, comme au capital fixe, une nature double – et, d’autre part, l’identité de l’offre et de la demande globales comme cadre général d’analyse de la production et du capital. L’identité de SAY(11) est liée à l’instantanéité du circuit de la monnaie qu’impose l’introduction du temps quantique comme « temps propre à l’économie », comme l’écrirait Henri GUITTON(12). La nature du capital fixe – mutation du capital-temps – est également réelle et monétaire simultanément. Tout capital est par nature d’abord un capital-temps. Le capital fixe est ainsi du capital-temps coulé dans les biens instrumentaux, ces derniers formant les moyens (relatifs, sous l’angle fonctionnel, au capital fixe) et objets (relatifs au capital circulant) de la production. Remarquons qu’est là corroboré le rôle central du travail dans le processus productif, puisque seul producteur (l’homme seul étant doué de conception abstraite de quelque produit), comme MARX l’avait pressenti. Le capital n’a d’influence que sur la production des valeurs d’usage. Le capital fixe est défini par la fusion du capital monétaire (le profit) dans le capital instrumental, alors que le capital-temps est défini par la juxtaposition du capital monétaire (les titres de l’épargne restée à la disposition de l’ensemble des titulaires de revenus) et du capital réel (le produit stocké). Alors que le capital-temps est réversible, puisqu’il est finalement détruit en libérant le revenu dont il est l’épargne temporaire, le capital fixe est, lui, irréversible, dans la mesure où le revenu épargné est définitivement fixé par l’investissement dans le capital instrumental. L’étude du caractère « fixe » du capital nécessite d’approfondir ce que sont les émissions et d’en distinguer deux sortes, « initiales » et « induites ». Le capital fixe est produit par l’injection des revenus épargnés dans de nouvelles émissions de salaires. Les produits de ces émissions induites de salaires sont des biens-capitaux, alors que ceux des émissions initiales sont des biens-salaires. Ceux-ci comprennent dans leur totalité les biens de consommation, d’amortissement et d’investissement, ces derniers s’identifiant à l’accumulation, puisqu’ils sont définis par la dépense de profits (comme pour les biens-dividendes, mais ces derniers sont toutefois redistribués aux titulaires de revenus non salariaux, au sein d’une seule période). Les biens-profits – dont la production est imposée par celle des biens d’amortissement, donc produits de façon « duale » – s’identifient, eux, à la sur-accumulation. La production duale serait en quelque sorte une production « dérivée » (de biens-profits) justifiée par le fait que les biens d’amortissement fusionnent par définition avec les biens-capitaux qui sont la propriété des firmes : les titulaires de revenus ne peuvent donc avoir accès à ces biens ni avec leur revenu évidemment, mais ni, non plus, avec un capital monétaire. On constate donc dans une seule période l’émission de salaires dans la production des biens d’amortissement (émission financée grâce au profit formé la période précédente) et une deuxième émission de ces salaires validant l’appropriation des biens d’amortissement par les firmes. La production des biens d’amortissement n’apporte donc ni revenu ni capital aux titulaires de revenus.

(5) Analyser plus profondément encore la nature et la structure du capital implique nécessairement de comprendre ce qu’est l’amortissement d’une part (incorporation ou transmission de valeur dans la théorie marxienne(13)), selon quel mécanisme il se manifeste dans l’économie et comment la théorie peut en déduire la distinction entre capital fixe et capital circulant d’autre part. S’agissant du capital circulant, l’analyse de l’amortissement du capital révèle qu’il diffère du capital fixe au sens strict, dans la mesure où, incorporé aux biens, il apparaît sous une forme matérielle au cours du processus de transformation pour être consommé par les ménages sous une forme différente. En cela, l’amortissement du capital circulant est une création (constitution)-destruction (incorporation), alors que l’amortissement du capital fixe est une destruction (dépréciation)-création. Mais, pour bien saisir la notion d’amortissement, il convient de concevoir son financement, c’est-à-dire l’existence du profit au sein de l’analyse macroéconomique ! Une approche historique succincte de cette question nous montrerait aisément, soit l’impossible conception du profit macroéconomique dans le cadre de l’échange entre équivalents – c’est ce que révèle l’analyse walrasienne de l’amortissement(14) -, soit la compatibilité du profit et de l’analyse macroéconomique – dans le cadre de l’analyse keynésienne de l’amortissement -, mais au prix de la distinction des sphères de la production et de la circulation : KEYNES peut démontrer l’existence d’un revenu de transfert parce que le revenu des services producteurs se forme non sur le marché des produits (dans la sphère de la circulation) mais sur le marché des services producteurs (donc à la production). Le profit-revenu de transfert (keynésien) analytiquement existe, mais la compréhension de sa formation, dans l’une ou l’autre sphère, n’est pas claire.

(6) La raison en est que la définition du profit, dans le cadre de l’analyse macroéconomique quantique du capital, nécessite une conception conjointe de la production et de la circulation(15). En montrant que les profits ne peuvent être formés (si nous considérons séparément production et circulation) ni dans la (seule) sphère de la production – l’exclusivité productive du travail fait obstacle – ni dans la (seule) sphère de la circulation – sous peine de concevoir les profits sous le seul angle physique – nous parvenons là à une conception synthétique de ce qui constituaient jusqu’alors deux branches d’analyse macroéconomique. L’imbrication conceptuelle du marché des services producteurs et du marché des biens et services produits(16) permet une conception du financement du profit dans le cadre strict du rejet de toute dichotomie néo-classique entre économie réelle et économie monétaire ; les relations entre les marchés sont symétriques : le versement des salaires (dont la dépense de profits) sur le marché des services producteurs correspond à la dépense de destruction définitive de revenus (dont la formation de profits) sur le marché des biens.

(7) L’analyse quantique du capital débouche alors sur une explication de la Crise que l’étude de l’investissement du profit (dans la rémunération de services producteurs au sein d’une seconde période de production) – permise par le phénomène d' »imbrication » des marchés – révèle. Non seulement l’explication de la Crise peut être élaborée en rejetant les analyses couramment admises, et notamment celle, keynésienne, fondée sur le métaphysique multiplicateur d’investissement, mais, bien plus, elle affirme l’identité de SAY en soulignant la non-existence de la thésaurisation macroéconomique ; en effet, pour définir l’inflation comme une diminution de la valeur de l’unité monétaire, il faut pouvoir poser l’équivalence de deux sommes de monnaie arithmétiquement inégales, ce que permet seul le postulat d’équivalence entre le produit et la monnaie(17) ! L’inflation est ainsi saisie en tenant compte du processus d’amortissement et du concept de « production duale ». En réitérant l’acte d’investissement, le mécanisme d’amortissement définit au plus profond la Crise (car, rappelons-le, il n’y a aucun apport de revenu ni de capital aux titulaires de revenus). Cela dit, la seule cause du dysfonctionnement de l’amortissement du capital fixe est l’appropriation des moyens de production par les firmes, celle-ci étant due au fait qu’en chaque période le paiement des biens-capitaux est inflationniste (ceux-ci étant payés deux fois). On peut ainsi distinguer le profit « normal » qui, non redistribué, définit le capital fixe, et le profit « d’inflation » finançant la production duale pour permettre l’amortissement du capital fixe. La Crise trouve ainsi une explication dans la distinction établie entre les émissions « pleines » et les émissions « vides » (les biens-profits étant appropriés par les entreprises immédiatement en nature et non d’abord en monnaie comme les biens-salaires), distinction issue de celle de deux secteurs dans l’économie dont MARX avait esquissé les contours et KEYNES parfait l’analyse.

(8) Soulignons enfin que l’analyse de la Crise développée par MARX et par KEYNES, fondée sur la partition de l’économie en deux secteurs, peut être corroborée dans le cadre de l’analyse quantique de l’économie monétaire de production. Nous pouvons démontrer ainsi, d’une part, que l’inflation trouve sa source dans le second secteur (production de biens-profits) – la « couronne » – alors qu’elle inflige sa conséquence dans le premier (production de biens-salaires) – le « noyau » – et, d’autre part, que le chômage peut être expliqué, dans le strict et parfait respect de l’identité de SAY (valide dans le premier comme dans le second secteur), en ayant recours à la loi de la baisse tendancielle du taux de profit(18). L’analyse macroéconomique quantique permet de concilier l’équivalence de l’offre et de la demande globales avec l’existence d’écarts non nuls constatés concrètement entre ces deux grandeurs, en distinguant finalement la mesure de l’offre en unités de monnaie constantes (identique à la demande mesurée également en unités de monnaie constantes) et la mesure de la demande en unités de monnaie courantes, c’est-à-dire en unités affectées par la pathologie (unités de monnaie privées de pouvoir d’achat)(19). Insuffisamment rémunératrice, la production du second secteur est soit réduite, soit destinée au marché financier ; rien n’empêche, en effet, les entreprises de produire des biens-profits destinés à être vendus – dans la sphère de la circulation – aux titulaires de revenus salariaux et non-salariaux – sous la forme, donc, de biens-salaires du secteur dual -, au lieu de les maintenir dans la sphère de la production : le problème réside dans l’écoulement définitif de ces biens, qui ne peut être assuré que s’ils sont achetés deux fois ! L’explication quantique de la Crise (inflation et chômage, les deux phénomènes formant les deux conséquences inséparables de la loi de la baisse tendancielle du taux de profit dans l’explication macroéconomique quantique ici avancée) stipule l’existence d’une confrontation entre le profit et l’intérêt conçu comme un référentiel. L’analyse du capital pourrait ainsi être approfondie par l’étude de la notion de « rendement » qui lui est attachée, et donc de la façon dont est déterminé l’intérêt(20). Nous pourrions dès lors montrer que – coût macroéconomique de production – il n’est ni le « prix » du temps(21), ni n’est lié à une quelconque « productivité » du capital, celui-ci n’étant pas productif, au sens strict(22). Les deux notions de « travail » et de « capital » se situent donc bien sur deux plans analytiques que l’on se doit de distinguer sans ambiguïté aucune. L’intérêt(-revenu) – formé au sein du « mouvement productif d’espace », prélevé sur le profit (dont le taux est décroissant) formé à l’intérieur du « noyau » – est la transposition périodique du capital du temps continu au temps quantique ; intérêt et capital ne sont donc pas complémentaires mais, au contraire, substituables.

La compréhension de l’économie monétaire de production ne se trouve-t-elle pas ainsi quelque peu éclairée par l’analyse parallèle des deux concepts fondamentaux que sont le travail et le capital ? Celle-ci constitue un cadre théorique incluant d’autres sous-cadres théoriques… ! Dès lors, l’étude d’une solution bancaire à la Crise (comme celle proposée par Bernard SCHMITT), dans la mesure où tous les éléments de structure du capital sont superposés, imbriqués, et ne peuvent être visibles qu’au sein des comptes bancaires, la monnaie constituant le moule du produit… peut apparaître comme une solution logique inhérente cependant au caractère « automatique » du mécanisme d’amortissement du capital. Et là, force est de constater l’inévitable recours à des travaux de recherche issus d’autres disciplines (analyses historiques et théoriques de gestionnaires…). Toujours plus loin dans les méandres du savoir…

 

Notes :

(1) Cf. David RICARDO, Des principes de l’économie politique et de l’impôt, Champs/Flammarion, Paris, 1977, notamment p. 25.

(2) Cf. Karl MARX, Le Capital, Livre I, Éditions Sociales, Paris, 1976, notamment p. 98.

(3) Cf. Robert BOYER, La théorie de la régulation, La Découverte, Paris, 1986, notamment p. 44.

(4) Cf. par exemple Thomas Robert MALTHUS, Principes d’économie politique, considérés sous le rapport de leur application pratique, « Perspectives Économiques », « Les Fondateurs », Calmann-Lévy, 1820-1969, notamment pp. 242 à 248.

(5) Cf. Irving FISHER, The Nature of Capital and Income, Mc Millan, London, 1902, notamment p. 3.

(6) Cf. Bernard SCHMITT, Inflation, chômage et malformations du capital, Economica, Castella, Albeuve, Suisse, 1984, notamment pp. 49 à 54.

(7) Cf. Jean-Pierre DUPUY, « De l’omniscience divine aux anticipations rationnelles », pp. 123-164, In René HEYER (Sous la Direction de), Économie et symbolique, Presses Universitaires de Strasbourg, 1994.

(8) En révisant la théorie néo-classique de l’équilibre général, les théoriciens « du déséquilibre » insistent sur le rejet de toute conception de la monnaie visant à la considérer comme un bien… sans toutefois parvenir à définir une véritable économie monétaire, la monnaie n’étant introduite qu’au niveau de l’échange : cf. Alain BARRÈRE, Déséquilibres économiques et contre-révolution keynésienne, Economica, Paris, 1983, notamment pp. 64-66.

(9) Cf. John Maynard KEYNES, A Treatise on Money, Volume I, The Pure Theory of Money, In « The Collected Writings of J.M. Keynes », London, Mac Millan, 1971, notamment pp. 40-41 ; cf. également la Théorie générale de l’emploi, de l’intérêt et de la monnaie, Petite Bibliothèque Payot, Paris, notamment p. 65.

(10) Cf. Jean-Luc BAILLY, Le revenu – élaboration historique d’un concept, Thèse de Doctorat ès Sciences Économiques, Université de Bourgogne, Dijon, 1990.

(11) Cf. Jean-Baptiste SAY, Traité d’économie politique, Calmann-Lévy, Paris, 1972 ; cf. également P.-L. REYNAUD, Jean-Baptiste Say, textes choisis, « Les Grands Économistes », Dalloz, 1953, notamment pp. 211-212.

(12) Cf. Henri GUITTON, A la recherche du temps économique, Fayard, Paris, 1970 ; cf. également Daniel VITRY, « Le temps dans la pensée d’Henri Guitton », In Mélanges offerts à Henri Guitton, le temps en économie, Dalloz-Sirey, 1976, notamment p. 111.

(13) Cf. Alvaro CENCINI & Bernard SCHMITT, La pensée de Karl Marx, critique et synthèse, Volume I, La valeur, Castella, Albeuve, Suisse, 1976.

(14) Cf. Léon WALRAS, Éléments d’économie politique pure, Librairie Générale de Droit et de Jurisprudence, Paris, 1976.

(15) Cf. Amit BHADURI, « La signification des controverses récentes sur la théorie du Capital – Un point de vue marxiste », In Nouvelle critique de l’économie politique, sous la direction de Gérard GRELLET, « Perspectives de l’économique », « Critique », Calmann-Lévy, 1976, notamment p. 125.

(16) Cf. Alvaro CENCINI & Bernard SCHMITT, Wages and Profits in a Theory of Emissions, In Advances in Economic Theory, Edited by M. Baranzini, notamment p. 138.

(17) Cf. Bernard SCHMITT, Théorie unitaire de la monnaie nationale et internationale, Castella, Albeuve, Suisse, 1975, notamment p. 68, où l’auteur explique que la loi de SAY est la condition permissive de l’inflation.

(18) On peut montrer, sur la base d’une analyse historique synoptique des deux lois, que la baisse tendancielle des taux de profits et l’identité de SAY ne sont pas incompatibles : cf. Thomas SOWELL, Say’s Low : An Historical Analysis, Princeton University Press, Princeton, 1972.

(19) Cf. Claude GNOS & Bernard SCHMITT, « Le circuit, réalité exhaustive », « Développements récents de la théorie keynésienne », Économies et Sociétés, n°2, 1990, notamment pp. 68-69.

(20) Cf. Eugène VON BÖHM-BAWERK, Histoire critique des théories de l’intérêt du capital, Giard, Paris, notamment Tome II, p. 55.

(21) Cf. Ramon TORTAJADA, « La monnaie et son taux d’intérêt chez J.M. Keynes », In Ghislain DELEPLACE et Patrick MAURISSON, « L’hétérodoxie dans la pensée économique », Cahiers d’Économie Politique, n°10 et n°11, Anthropos, 1985, notamment pp. 134-135.

(22) Cf. Jean-Luc BAILLY, « Monnaie, « finance » et intérêt », In Économie Appliquée, Tome XLVI, 1994, n°1, notamment p. 164.

 

Cet article a été adressé quelque peu modifié en tant que projet de recherche à PEKEA :

Poster un commentaire

Classé dans QUE SAVOIR ?