OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Pour une économie durable: la e-frugalité http://owni.fr/2011/06/09/economie-durable-e-frugalite/ http://owni.fr/2011/06/09/economie-durable-e-frugalite/#comments Thu, 09 Jun 2011 16:25:24 +0000 Jean-Pierre Corniou http://owni.fr/?p=67053 Les tensions sur les marchés de matières premières n’ont jamais atteint un niveau aussi élevé. La population de la Terre est passée de 800 millions en 1800 à 7 milliards d’habitants en 2012. Dans tous les domaines, les réserves prouvées s’amenuisent. Les terriens auraient déjà consommé en 200 ans la majorité des ressources non renouvelables connues de la planète et accessibles… Et quand bien même on saurait, par l’exploration de nouveaux territoires, repousser ces limites (non sans risque ni sans coût supplémentaire) le problème de l’exploitation du « réservoir Terre », qui par principe est fini, se posera à long terme pour les générations futures.

Le constat est sans équivoque, partagé par toute la communauté scientifique internationale et atteint aujourd’hui les milieux économiques.

Source : Programme des Nations Unies pour l’Environnement, mai 2011

Malthus et les Chinois

Si la question du risque d’épuisement des ressources naturelles n’est pas nouvelle et a donné lieu à d’innombrables controverses, elle se pose aujourd’hui dans un contexte radicalement nouveau : celui de l’apparition de deux acteurs massifs, la Chine et l’Inde.

Ces deux pays aspirent au cours du XXIème siècle à faire bénéficier leur population de 2,5 milliards de personnes d’un niveau de vie comparable à celui atteint à la fin du XXème siècle par les pays développés. Rien ne les empêchera de le vouloir et de tenter d’y parvenir. Personne ne peut légitimement s’y opposer.

Ce qui est nouveau dans le paysage mondial, c’est que la Chine, qui est dans une phase unique de construction de ses infrastructures, pèse entre le tiers et la moitié de la consommation mondiale d’acier, de minerai de fer, de ciment, de plomb, de zinc, d’aluminium, de cuivre, mais aussi de porcs et d’œufs… Nous ne sommes plus dans les échelles de grandeur de l’Angleterre du début du XIXème siècle !

Dans son ouvrage Effondrement paru en 2005, consacré à l’analyse de causes multiples ayant entraîné la disparition de sociétés, l’universitaire Jared Diamond , propose, à partir de l’analyse des cas qui forment la trame de son livre, un modèle sur les facteurs qui contribuent à la prise de décision en groupe :

  • un groupe peut échouer à anticiper un problème avant qu’il ne survienne vraiment
  • lorsque le problème arrive, le groupe peut échouer à le percevoir
  • ensuite, une fois qu’il l’a perçu, il peut échouer dans sa tentative pour le résoudre
  • enfin il peut essayer de le résoudre, mais échouer.

Dans notre société démocratique, la gestion du futur est un des problèmes les moins faciles à traiter. Car nous sommes sur un terrain miné ! Une société autoritaire peut assumer le coût de décisions de long terme impopulaires. Haussmann a pu créer le Paris moderne car il ne s’est pas encombré de débats sur les conséquences de ses actes, notamment le bouleversement de la structure socio-économique de la ville. Et Paris aujourd’hui, 140 ans plus tard, demeure une ville assez équilibrée dans son organisation et son aptitude à se moderniser. Comment fonctionnerait aujourd’hui le Paris médiéval de 1852 ? La vision chinoise est une démonstration de la capacité de ce type de régime à assumer des décisions longues, ce qui n’implique pas nécessairement qu’une décision technocratique soit éclairée ou qu’une décision démocratique ne soit qu’un arbitrage mou entre intérêts de court terme.

Néanmoins, prendre des décisions implique toujours d’engager le futur avec une vision plus ou moins cohérente, structurée, anticipatrice. Notre gestion de la ressource pétrolière est une belle démonstration. Depuis les premiers avertissements du Club de Rome, accueillis avec sarcasme en 1972, la société, continue collectivement à exacerber la préférence pour le présent au détriment de notre responsabilité envers le futur. Cette société limitée et égoïste a démontré ses limites dans l’emballement financier de 2008, mais, au-delà des intentions réformatrices, cette préférence pour le présent continue à satisfaire largement les intérêts des dirigeants politiques et économiques. Il est clair que peu de décideurs ont la fibre sacrificielle pour risquer leur mandat face aux électeurs ou aux actionnaires en sortant des sentiers balisés de la continuité. Et d’ailleurs la vraie difficulté est de concevoir un modèle qui serait « meilleur » que le système actuel. Nous sommes dans un domaine où la globalisation rend l’expérimentation extrêmement difficile à pratiquer et pour lequel n’existe pas de référence historique. Nous sommes condamnés à inventer sans filet…

Le roi est nu…

Or, si nous ne savons pas vers quel modèle nous diriger, si nous sommes incapables de prendre des décisions collectives au niveau du « vaisseau spatial Terre » comme l’échec de Copenhague et les piètres résultats des G8 et G20 successifs le démontrent, nous savons que nous sommes proches des limites du modèle du XXIème siècle. Notre société moderne qui assiste avec Fukushima à la concrétisation d’un de ses pires cauchemars, vit la démonstration en temps réel que même lorsque le risque est pensé, préparé, il peut quand même arriver et conduit à une formidable régression de tous les avantages que le progrès nous a apportés.

« Christmas in 2050 »

Il suffit de voir comment vivent encore maintenant au Japon, dans un des pays les plus technologiquement avancés de la planète, les dizaines de milliers de réfugiés, comme les centaines de milliers d’Haïtiens, un des pays les plus pauvres de la planète, pour constater qu’en très peu de temps n’importe lequel d’entre nous peut se retrouver dans une situation durable de dénuement et de détresse.

Comment passer d’une attitude résignée ou insouciante à l’action ? Comment réconcilier une économie de croissance, qui apparaissait comme la moins mauvaise réponse à nos aspirations individuelles et à nos besoins sociaux planétaires, à une économie de responsabilité, conciliant besoins présents et besoins futurs ? Comment réduire ou éliminer la consommation de ressources non renouvelables en cessant de grignoter notre capital naturel, dans une démarche de mise en cohérence des horizons courts et des horizons longs ? Comment traiter la question centrale de l’exposition aux risques sans paralyser toute initiative nouvelle ? Ce débat n’est pas nouveau. Jared Diamond prête aux dirigeants des civilisations disparues la capacité de s’être posé les bonnes questions. Mais ce sont les réponses qui ont été inopérantes. Et rien ne prouve que notre société, mondiale, informée, scientifique saura résoudre tous les problèmes que nous connaissons aujourd’hui et ceux que nous allons progressivement découvrir.

Or le débat est particulièrement difficile à documenter car s’opposent violemment deux clans irréductibles : les libéraux qui pensent que la science et le marché trouveront, au moment opportun, les bonnes réponses, même si le prix en est élevé ; et en face les adeptes de la décroissance qui estiment qu’il faut changer tout de suite de modèle économique en revenant à un statu quo ante mythique. On a tenté de forger un modèle de compromis, le développement durable, formalisé par une série de textes issue des réflexions partagées lors de la conférence des Nations Unies sur l’environnement humain à Stockholm dès 1972, puis dans le rapport Bruntland de 1987, et ultérieurement affinées. Même cette caution universelle n’a pas permis de déboucher sur des conclusions pratiques. Au contraire, l’année 2010 a vu croître la production mondiale de CO2 à un rythme plus rapide encore !

Tentons la formulation d’une alternative à chacun de ces deux modèles de base, aux dérivées multiples, que chaque camp aura tout loisir à rejeter dans l’autre.

La force de l’homme face à celle de la nature

Le XIXème et le XXème siècle ont été des périodes d’intense croissance économique centrée sur la mise à disposition par l’espèce humaine d’une formidable prothèse musculaire décuplant ses forces naturelles à l’aide de moyens mécaniques de plus en plus efficaces. La machine à vapeur, puis le moteur à explosion et l’électricité nous ont donné la capacité de nous transporter et d’exploiter les ressources naturelles à un niveau que les terriens n’avaient jamais imaginé pendant des millénaires. Le progrès était assimilé à la capacité d’exploiter les ressources naturelles, puisque la révolution industrielle a été le fruit de la rencontre de la maîtrise de sources d’énergie de plus en plus abondantes et la capacité à les exploiter pour inventer de nouveaux matériaux et de nouvelles machines. Et cette puissance était encensée et célébrée dans les Expositions Universelles comme l’expression ultime du rêve de la domination de l’Homme sur la nature… Le système technique mis en place entre 1850 et 1900 a totalement imprégné de son modèle tout le XXème siècle sans qu’il y ait de rupture fondamentale dans la manière de concevoir le développement économique servi par une énergie abondante et peu chère.

Mais aujourd’hui nous touchons les limites de ce modèle « mécanique ». Les vitesses de déplacement, qui ont été le marqueur le plus symbolique du progrès, sont aujourd’hui asymptotiques. Sur mer, le Queen Mary avait une vitesse de pointe de 29 nœuds en 1935. Son successeur, le Queen Mary 2 construit en 2003 atteint la même vitesse maximale de 29 nœuds. Le rail a été le domaine de prédilection des records de vitesse. Si la vitesse maximale de 574 km/h a été atteinte de façon expérimentale en 2007 sur la LGV Est, la vitesse commerciale des TGV se stabilise entre 300 et 350 km/h. Avec l’abandon de Concorde, le rêve du transport supersonique semble écarté pour longtemps et on se « contentera » longtemps d’une vitesse de croisière de l’ordre de 900 km/h. Enfin, la voiture individuelle qui n’a cessé depuis son origine d’être exploitée pour battre des records de vitesse, se cantonne partout dans le monde autour d’une vitesse maximale autorisée de l’ordre de 100 à 130 km/h. La vitesse n’est plus l’objectif majeur. Il faut réduire les consommations, préserver les infrastructures et ne plus jouer avec la vie humaine.

L’ère du savoir infini commence

Le biologiste et philosophe Julian Huxley, qui a joué un rôle clef dans le développement de l’UNESCO, écrivait en 1942, au cœur de la seconde guerre mondiale qui vit le déchainement des forces mécaniques, que « le progrès » comportait trois dimensions principales :

  • une maîtrise plus étendue de la vie sur son milieu
  • une indépendance plus grande par rapport aux changements qui se produisent dans ce milieu
  • une augmentation de la connaissance, de la complexité harmonieuse et de la capacité d’autorégulation

Cette définition d’un progrès équilibré entre l’homme, sa vie et son milieu, pourrait être une piste de réconciliation entre progrès scientifique et développement humain. Car une croissance responsable de l’anthroposphère doit dorénavant viser une empreinte minimale sur le milieu naturel. Elle doit être la plus faiblement consommatrice de ressources et de matières premières voire même productrice nette de ressources. Elle devra faire une place absolue à l’énergie électrique qui est aujourd’hui le vecteur d’énergie le plus efficace et peut être produite à partir de ressources renouvelables.

Contrairement, au XIXème siècle, l’enjeu est aujourd’hui de produire en consommant le moins possible de ressources non renouvelables et en les recyclant après usage. C’est la stratégie du “découplage” entre la croissance et la consommation des ressources naturelles.

Or il est un domaine qui connait une croissance exponentielle depuis l’origine avec une empreinte minimale sur ces ressources : les microprocesseurs. Autour du microprocesseur s’est construit un ensemble de méthodes et d’outils qui constituent les sciences de l’information et de la communication et dont l’application à tous les domaines de l’activité humaine nous dote d’une nouvelle capacité, une prothèse cérébrale.

Ce n’est plus la puissance physique qui est déterminante, mais la capacité de « mettre en relation » des facteurs pour faire émerger rapidement la meilleure solution. Nous passons de la main- d’œuvre, assistée par la machine mécanique, au cerveau d’œuvre, assisté par ordinateur. Nous transitons d’un monde qui recherchait l’efficacité vers un monde centré sur l’efficience. La société de l’information et de la connaissance sera-t-elle finalement le modèle recherché de développement durable conciliant niveau élevé d’utilités individuelle et collective et absence d’empreinte sur l’environnement ? C’est bien le troisième point souligné par Julian Huxley.

Comprendre pour agir avec discernement; orienter les comportements par les prix intégrant les valeurs du futur…

Connaître pour comprendre, comprendre pour prendre les meilleures décisions en analysant à l’avance les conséquences de ces décisions, intégrer tous les facteurs, dont le long terme : ce sont les nouveaux moteurs de l’action qui se déclinent dans une variété infinie de situations. En effet, pour utiliser moins de ressources, il faut être en mesure d’ajuster de façon précise le moyen utilisé au résultat visé. Cet ajustement doit être fin, évolutif, automatique. Ceci implique une capacité de modélisation et de pilotage de la réalisation dont nous étions jusqu’alors incapables. Ces outils offrent aussi la possibilité nouvelle de réguler à grande échelle les actions individuelles dans une cohérence globale permettant une optimisation énergétique mais également un niveau de satisfaction individuelle supérieur.

C’est l’objet des réseaux énergétiques intelligents, comme des réseaux de transport. Cette vision intègre également une réflexion de fond sur le sens du travail. Prenons le domaine des transports. Nous produisons des machines sophistiquées, les voitures, dont l’usage est tout à fait dérisoire par rapport à leurs capacités. Utiliser un moteur à explosion de 3 l de cylindrée, développant 250 cv, qui même à l’arrêt consomme de l’énergie et produit de la chaleur, conçu pour rouler à 250 km/h, pour se déplacer en ville à 15km/h est le comble de l’absurde. Faire rouler une berline de cinq places de 1,8 t sur 500 km pour déplacer son seul conducteur n’est pas plus efficace. Les réponses apportées par l’économie du service et de la connaissance sont aujourd’hui dans la consommation collaborative : le co-voiturage, l’autopartage et les différentes solutions de transport ferroviaire.

Partager est le premier moyen de consommer moins d’énergie. Naguère solution rigide, il est aujourd’hui possible grâce aux télécommunications et à la géolocalisation de le faire de façon souple et confortable. S’il faut favoriser le rapprochement des personnes pour exploiter tout notre potentiel de créativité, nous pouvons désormais le faire avec beaucoup plus de discernement en évitant les déplacements inutiles grâce aux outils de communication et de travail coopératif qui permettent avec peu d’énergie de renforcer la dynamique de l’échange. Si l’échange des biens physiques reste incontournable pour se nourrir, se vêtir, se loger, on peut désormais prendre des décisions informées sans se déplacer, optimiser ses choix en fonction d’objectifs plus larges, notamment l’empreinte environnementale par la durabilité des solutions et la recyclabilité des produits.

Gérer au mieux les ressources est également le fruit d’un intense travail de recherche et de modélisation sur les systèmes énergétiques, les matériaux, la production agricole, et sur les circuits logistiques. La conception assistée par ordinateur, la modélisation des comportements des systèmes complexes ont permis des progrès considérables en matière de création de nouveaux produits et de gestion de systèmes. Un téléviseur plat à LED consomme infiniment moins de ressources qu’un écran à tube cathodique en apportant un service supérieur. Trouver des solutions nouvelles en matière de production et de consommation d’énergie viendra de la recherche, facilitée par l’expérimentation, nourrie par les informations issues des politiques d’open data et d’open innovation alimentées par le web. On sait aujourd’hui produire un habitat a minima neutre sur le plan énergétique grâce aux matériaux. L’industrie a fait des progrès considérables en matière de consommation de fluides et de gestion des rejets, et apprend à recycler la plupart des matières premières consommées. Nous devons dans tous les domaines nous inspirer des solutions mises ne œuvre par la nature elle-même pour développer l’efficience énergétique et inventer de nouveaux systèmes. C’est le vaste champ du biomimétisme.

Mais si ces comportements sont encore minoritaires, c’est que le marché n’a pas encore intégré toutes les informations nécessaires pour les transformer en signaux prix suffisamment explicites pour que les comportements vertueux envers le futur ne soient pas le fruit de militants isolés. Le modèle doit devenir auto-piloté et les comportements être orientés par les prix intégrant les valeurs du futur. Quand le marché ne le fait pas de façon suffisamment rapide, la fiscalité doit y contribuer d’où toute l’importance économique des formules de taxe carbone et d’éco-taxes qui doivent clairement contribuer à l’optimisation des choix en faveur de la préservation des intérêts à long terme de la communauté humaine.

Certes, la gestion de l’information à grande échelle consomme également des ressources naturelles et de l’énergie. L’électronique est friande de terres rares, exploite l’énergie portable avide de lithium, l’informatique en nuage nécessite des centres de calcul consommateurs d’énergie électrique et les outils de la mobilité exploitent des ondes dont l’impact à long terme est méconnu. Mais la prise de conscience de l’industrie est acquise et les progrès déjà remarquables, même s’il faut encore trouver des solutions de recyclage plus efficaces.

L’information, moteur d’un monde frugal ?

La révolution du XXIème siècle empruntera largement cette voie. Tout n’y est pas résolu, ni simple. Mais au moment où les choix se font plus pressants, exploiter tout le potentiel d’une intelligence en réseau paraît indispensable, sans toutefois garantir sans effort un monde meilleur. Ceci implique pour les entreprises comme pour les collectivités le retour des investissements en techniques et process numériques. Mais dans cette nouvelle phase l’objectif ne serait plus l’augmentation de la productivité du travail, mais l’invention de nouvelles activités stimulantes, utiles, compétitives et neutres sur l’environnement.


Article initialement publié sur le blog de Jean-Pierre Corniou Technologies et société de la connaissance.

Crédit photos FlickR PaternitéPas d'utilisation commerciale Roberto ‘PixJockey’ Rizzato PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales alles-schlumpf PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales ecstaticist PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales PNNL – Pacific Northwest National Laboratory

]]>
http://owni.fr/2011/06/09/economie-durable-e-frugalite/feed/ 7
La résilience des économies face aux catastrophes naturelles http://owni.fr/2011/03/23/japon-resilience-economique-catastrophes/ http://owni.fr/2011/03/23/japon-resilience-economique-catastrophes/#comments Wed, 23 Mar 2011 07:29:59 +0000 Cyril Hedoin http://owni.fr/?p=52810 L’économiste français du XIXe siècle Frédéric Bastiat est essentiellement connu pour sa plume et sa capacité à exposer au grand jour les erreurs de raisonnement économique qui étaient communes à son époque… et qui le sont toujours aujourd’hui. Ce qui est connu sous le nom du sophisme de la vitre cassée est une des analyses les plus célèbres de Bastiat.

L’économiste français y réfute l’idée que la destruction de biens dans une économie est automatiquement bénéfique pour cette économie, puisque générant de l’activité pour remplacer les biens détruits. L’argument repose simplement sur l’idée de coût d’opportunité : une vitre cassée doit être remplacée, ce qui génère effectivement de l’activité et un revenu pour l’agent qui remplace la vitre. Mais les ressources dépensées pour remplacer la vitre (le coût de production pour le producteur ainsi que le prix payé par le demandeur) auraient pu être utilisées à d’autres fins plus bénéfiques pour l’économie.

L’occurrence de catastrophes naturelles comme le tremblement de terre au Japon est évidemment propice à des arguments reposant sur le sophisme de la vitre brisée. Après tout, l’économie japonaise qui est en crise depuis plus de 20 ans ne va-t-elle pas pouvoir se relancer par le biais de grands travaux de reconstruction ? J’avoue ne pas avoir entendu ces derniers jours cet argument fallacieux autant que je ne l’aurais pensé, si ce n’est chez Jean-Marc Sylvestre (mais est-ce vraiment surprenant ?). Cet article de James Surowiecki [en] montre cependant que l’impact des catastrophes naturelles sur l’économie est intéressant pour d’autres raisons que le sophisme de la vitre brisée. Surowiecki développe deux point différents mais complémentaires.

Premier point, même s’il est évident que l’économie japonaise va souffrir des répercussions du tremblement de terre, il est peu probable que l’activité économique soit affectée sur le long terme. Cela met en avant un aspect fondamental des économies de marché qui fonctionnent bien : leur résilience, c’est-à-dire leur capacité à s’adapter et à se réorganiser face à des chocs exogènes.

Les économies de marché sont ce que l’on appelle des « systèmes complexes adaptatifs » : précisément parce que le calcul d’ajustement n’est à la charge de personne en particulier mais de tout le monde en général, les économies de marché reposent sur des mécanismes d’adaptation décentralisés où chaque « module » (agent) se coordonne avec les autres par le biais de signaux synthétiques tels que le prix. Cette résilience est directement la conséquence d’une propriété de l’institution du marché soulignée par Hayek dès 1945 dans ce qui restera l’un des articles les plus importants de l’histoire de la discipline : le marché coordonne les actions en incitant tous les agents à révéler leur information privée concernant leurs préférences, leurs coûts de production, leurs anticipations etc. Ce faisant, le « marché » peut faire usage d’une information qui ne serait jamais à la disposition du planificateur.

Les pays en développement extrêmement vulnérables aux chocs exogènes

Tout ceci est très idéalisé mais n’est pas que théorique. Bien entendu, pour bien fonctionner, une économie de marché a besoin d’autres choses que de la seule institution du marché. Mais l’analyse des taux de croissance sur longue période des différents pays dans le monde fait ressortir un fait stylisé intéressant : ce qui caractérise les pays développés, ce n’est pas des taux de croissance particulièrement élevés. Même les pays très pauvres connaissent des taux de croissance très élevés (5 à 10%) certaines années.

La différence fondamentale est que les pays en développement sont extrêmement vulnérables aux chocs exogènes, ce qui se traduit par le fait que les années de croissance positive sont en moyenne neutralisées par des années de croissance négative. Dans leur ouvrage Violence and Social Order, North, Wallis et Weingast ont compilé quelques statistiques à ce sujet et les résultats sont éloquents. Entre 1950 et 2004, les pays avec un revenu moyen par habitant supérieur à 20.000$ (et sans pétrole) ont eu un taux de croissance positif dans 84% des cas. Ce taux baisse avec le revenu par habitant, pour tomber à 53% pour les pays les plus pauvres.

Bref, tous les pays ne sont pas égaux devant les catastrophes naturelles : là où Haïti va probablement mettre plus d’une décennie pour récupérer sur un plan économique du séisme de l’an passé, il est fort possible que le Japon, grâce à son économie de marché et à ses autres institutions, se rétablisse très rapidement.

Sortir du sentier pour accomplir un bond technologique et institutionnel

Le second point souligné par l’article de Surowiecki est plus surprenant mais est finalement tout à fait conforme à la représentation de l’économie comme un système complexe avec équilibres multiples : un choc exogène, par les destructions qu’il occasionne, peut permettre à une économie de sortir du sentier technologique et institutionnel dans lequel elle était enfermée et qui pouvait tout à fait être sous-optimal.

L’idée est simple et, d’après l’article de Surowiecki, semble être corroborée empiriquement : la dépendance au sentier [en] résulte du fait que les coûts consécutifs à un changement technologique ou institutionnel sont trop élevés par rapport aux bénéfices qu’ils apportent. La dépendance au sentier est souvent le résultat d’un problème de coordination : tout le monde serait mieux si on utilisait la technologie X, mais tant que les utilisateurs de la technologie Y dépassent une certaine masse critique, personne n’a intérêt à changer de technologie.

Cela est caractéristique de tout système complexe avec deux attracteurs stables ou plus : pour converger vers le second attracteur il faut sortir du bassin d’attraction du premier, ce qui souvent va requérir une action collective sous forme de coordination planifiée, et donc difficile à mettre en œuvre. Un choc exog

ène peut faciliter la transition : le capital détruit par la catastrophe naturelle doit de toute façon être remplacé, générant ainsi des coûts inévitables. Cela rend de fait le changement technologique (ou institutionnel) plus intéressant : si le coût individuel pour passer de la technologie Y à la technologie X était de c avec un bénéfice b et que c > b, alors le changement n’était pas intéressant.

Mais, si en raison de la catastrophe, le remplacement du capital correspondant à la technologie Y est c’, alors on voit que le changement de technologie devient intéressant dès lors que c – c’ < b (c’est à dire que le bénéfice lié au changement de technologie excède le coût de changement technologique moins le coût de remplacement du capital qui doit de toute façon être remplacé). Cela est encore plus vrai si la rentabilité d’une technologie dépend du nombre d’utilisateurs (parce qu’il y a des rendements croissants par exemple).

En conclusion, même s’il est faux de dire qu’une catastrophe naturelle « relance » une économie, toutes les économies ne sont pas aussi vulnérables face à des chocs exogènes et, dans certains cas, une catastrophe peut permettre le basculement d’un équilibre sous-optimal à un équilibre pareto-supérieur. Ce dernier point reste toutefois à mon avis à relativiser et est de toute façon difficilement maitrisable par les pouvoirs publics (je dis juste ça au cas où certains verraient dans les catastrophes naturelles un nouveau moyen de faire de la politique économique structurelle…).

Article initialement publié sur le blog Rationalité limitée

>> Illustrations flickr CC Douglas Sprott ; dugspr ; US Marines

]]>
http://owni.fr/2011/03/23/japon-resilience-economique-catastrophes/feed/ 5
Biodiversité : la bonne affaire du capitalisme sauvage http://owni.fr/2011/01/26/biodiversite-capitalisme/ http://owni.fr/2011/01/26/biodiversite-capitalisme/#comments Wed, 26 Jan 2011 16:30:05 +0000 Christian Fauré http://owni.fr/?p=44013 Le World Resources Institute (WRI) est une organisation qui se présente de la manière suivante :

Le WRI est un think tank environnemental qui va au delà de la recherche pour trouver des moyens pratiques pour protéger la planète et améliorer la vie des peuples.

C’est très noble.

Mais une autre manière de voir, s’y l’on croit les journalistes Agnès Bertrand et Françoise Degert, est celle qui va suivre. Après avoir écouté leur entretien dans l’émission Terre à terre du 16 Octobre, voici à la fois ce que j’en ai compris et comment je l’interprète.

Le World Resources Institute et la convention pour la biodiversité

World Resources Institute est une organisation de lobbying et d’influence, contrôlée par des grandes firmes (banques d’affaires, agro-alimentaire, chimie, extraction de matière première, etc.) qui vise à la fois le détournement de la « Convention pour la Biodiversité » et l’appropriation des ressources naturelles et de la biodiversité.

Le détournement de la Convention pour la Biodiversité, adopté lors du Sommet de la Terre à Rio de Janeiro en 1992 (texte PDF de la convention en français), était la première motivation. En effet, cette convention prônait notamment la fin des subventions (à l’horizon 2020) pour toute activité qui nuirait à la biodiversité. Pétroliers, industries de l’agro-alimententaire et de l’extraction minière et autres ont bien compris que si cette convention venait à être appliquée, leur profit risquait de fondre comme neige au soleil. C’est comme si chaque industriel devait être tenu comptablement et financièrement responsable des externalités négatives qu’il produit : ce qui n’est pas acceptable. Il fallait donc détourner la convention.

Détournement qui se fait en trois moments :

  • cela commence tout d’abord par une opération sophistiquée de détournement systématique du vocabulaire et du sens des propositions. On commence à être largement habitué à cette pratique institutionnelle qui consiste à renommer tous les termes, à les adoucir jusqu’à les rendre incompréhensibles et équivoques (exemple : le balayeur qui devient « technicien de surface »), le tout saupoudré d’une communication millimétrée qui distille des « éléments de langage ».
  • dans la confusion qui en résulte, prendre la main sur le dispositif de gestion de l’application de la politique en matière de biodiversité qui se met en place. C’est l’acte par lequel on va court-circuiter les populations mais aussi les politiques dans la définition de la mise en place d’une articulation entre finance et écologie. Articulation qui va se faire selon une modalité de soumission du système écologique au système financier.
  • le dernier moment étant proprement celui de l’appropriation de fait et en droit de la biodiversité par le marché.

Entre la Convention sur la Biodiversité de 1992 et le sommet de Nagoya de 2010, le système financier a transformé une menace en une gigantesque opportunité. Nous sommes passés d’une hégémonie menacée à une hégémonie triomphante et sans vergogne.

Leur crédo, très classiquement libéral, est que le meilleur moyen de préserver les ressources naturelles ainsi que la biodiversité est de confier tout cela au marché. Dit autrement, il faut que la biodiversité ait une valeur marchande pour qu’elle puisse devenir objet d’intérêt et donc être protégée. L’argument qui justifie la démarche étant que : la meilleure façon d’échapper aux effets toxiques de la spéculation financière des marchés est encore … de rentrer dans le marché. La meilleure façon d’être à l’abri des effets et du fonctionnement d’un système étant de s’y fondre.

Cependant la voie du marché n’est empruntable que par des propriétaires, ceux qui possèdent un titre de propriété. Pour entrer dans le marché, et être « protégé mécaniquement » des effets du marché, il faut donc que la biodiversité trouve un propriétaire.

De l’inventaire au catalogue des services écosystémiques

Mais d’abord il va falloir inventorier et classifier la biodiversité. Puisque l’on souhaite mettre quelque chose sur le marché, il faut être en mesure de le caractériser et de lui donner une valeur. Comment va-t-on pouvoir classer et répertorier toute la biodiversité afin de pouvoir la présenter au marché en tant que marchandise ? Prendre la question au niveau de la molécule serait beaucoup trop long et complexe, un classement en matière de « service rendu » sera préféré. Après tout, à quoi çà sert la biodiversité ? Quels services cela rend-il ?

Si c’est un service, cela a nécessairement une valeur. C’est d’ailleurs presque une tautologie tant c’est l’établissement d’une valeur qui justifie un service.

Service => Valeur puis Service = Valeur

Un jour, tous les services rendus par la nature auront une valeur marchande ; l’air que l’on respire, la graine que l’on plante, la terre que l’on cultive, l’eau que l’on boit, la pharmacie naturelle des plantes, les molécules produites naturellement, etc. C’est une histoire de fournisseur : fournisseurs d’énergie qui deviennent fournisseurs de nature et de biodiversité. Au sens strict, les fournisseurs sont ceux qui mettent au four, qui enfournent ce qui va être consumé et consommé.

On va donc faire comme ça : on va dire que la biodiversité produit des services. Au début on parlera de la biodiversité, puis après d’écosystèmes et à l’arrivée de « services écosystémiques » !

Ne reste plus au WRI qu’à faire pression sur l’ONU pour financer un programme sur l’environnement sensé faire une classification des écosystèmes (pour mieux protéger la biodiversité bien sûr). Le projet devant produire le rapport « Millenium Ecosystem Assessment ». Un « assessment » de la biodiversité qui va identifier et classer 31 services écosystémique regroupés en quatre catégories :

  • Approvisionnement en matière première (textile, pêche, minerai, etc.) ;
  • Services de supports (les sols) ;
  • Régulation du climat et de l’eau ;
  • Services culturels (les savoir-faire, et notamment ceux des femmes, c’est très important).

La mise en place de la marchandisation de la biodiversité

On assiste à la création d’un marché, celui de la biodiversité, de la diversité de la vie. Y compris jusqu’aux savoir-faire compris comme « services culturels ».

Pour qu’un service soit sur le marché, il faut qu’il puisse avoir des équivalences avec d’autres services et d’autres marchandises. Cette activité existe, c’est le métier des banques de compensation (Clearstream par exemple, est une banque de compensation). Il faut pouvoir dire que tel territoire a telle valeur et peut s’échanger contre d’autres services. De la sorte, les aires protégées deviennent des actifs financiers.

C’est ce qui s’est passé quand le Brésil a épongé une dette de 61 M$ avec les USA en vendant une aire protégée, la Mata Atlantica (la forêt atlantique du Brésil). Cette zone va donc être géré par les USA. Grâce à cet actif, les USA pourront se dédouaner plus facilement de leur impact écologique et pourront influer sur le marché du Carbone. L’achat de la gestion d’une aire protégée va donner des passe-droits, des joker qui vont sécuriser les profits d’une industrie de guerre. Il s’agit de pouvoir acheter des bonus pour ne pas subir les conséquences des malus, s’acheter une bonne conduite.

Mais pas seulement. La compensation, en faisant entrer la biodiversité dans le marché et dans des transactions financières, étend radicalement l’« aire de jeu » des pratiques spéculatives à tout le vivant. C’est un nouveau marché, un nouveau golden field (un champ d’opportunité en or).

« Compensation »

Pour être sur un marché, il faut donc qu’il y ait compensation. Le Littré nous indique que compenser désigne l’acte de déclarer équivalente la valeur de deux choses puis, par extension, la compensation est ce qui intervient dans le dédommagement d’un préjudice ou d’un désavantage (on réclame une compensation pour préjudice subi). Enfin, un troisième sens sous la forme d’un verbe réfléchi : « se compenser », au sens où des erreurs qui se compensent n’affectent pas le résultat.

Avec ce dernier sens, on ne déclenche pas de transaction pour les opérations qui s’annulent entre elles sans affecter le résultat. Cette pratique à le nom de « novation », elle désigne le fait, toujours selon le littré, « d’éteindre une ancienne obligation en changeant le titre, le créancier ou le débiteur « , c’est ce que font les chambres de compensation en se substituant successivement aux créanciers, ou débiteurs, lors d’une opération de gré-à-gré.

Les pays fortement endetté pourraient ainsi éponger leur dette grâce à des compensation en biodiversité. Un visage de l’industrie capitaliste, celui qui détruit la biodiversité, se propose maintenant d’effacer l’ardoise en récupérant en plus le peu qu’il en reste. « Je possède ce que je détruit », la boucle est bouclée. Ainsi un parlementaire allemand, du parti de Mme Merkel, a-t-il suggéré qu’en retour de son aide financière à la Grèce, celle-ci devrait céder en compensation ses îles à l’Allemagne !

Les actifs de ces banques de compensation passent ensuite dans des chambres de compensation qui sont totalement opaques et occultes dans leur mode de fonctionnement. L’opacité de ces activités a ainsi fait dire que ces banques avaient une activité de blanchiment d’argent sale qui permet également de faire marcher la planche à billet.

Imposer un système de gestion pour court-circuiter les logiques contributives

Ce qui donc a été présenté à Nagoya, du 23 au 30 Octobre 2010, c’est le fruit d’un travail qui a été confié à un banquier de la Deutsche Bank, basé à Bombay. Il s’agit de « The economy of ecosystems and biodiversity » (TEEB). Avant même d’être présenté à Nagoya, des extraits et un pré-rapport ont été présenté à Londres le 13 Juillet 2010 sous l’intitulé « The economy of ecosystems and biodiversity for Business ».

La prochaine étape est la mise en place de l’IPBES (Plateforme intergouvernementale,  scientifique et politique sur la biodiversité et les services écosystémiques). Présentée comme le « GIEC de la biodiversité », l’IPBES est beaucoup plus qu’un groupe d’experts scientifiques puisque il a des prérogatives politiques avec un droit de gestion de toute la biodiversité sans forcément directement passer par les états, c’est à dire en pouvant dialoguer directement avec les collectivités locales et les populations autochtones.

Tout est donc en place pour un arrimage de la biodiversité à la finance : les aspects juridiques et la répartition des tâches sont en train d’être finalisés, et on peut être certain que l’IPBES va court-circuiter la mise en place des mesures préconisées par la Convention sur la biodiversité, au premier rand duquel les subventions aux activités produisant des externalités négatives sur la biodiversité.

Article initialement publié sur le blog de Christian Fauré sous le titre : « Biodiversity (for Business) »

>> photos flickr CC Stéfan ; Rodrigo Soldon ; Michael Grimes

]]>
http://owni.fr/2011/01/26/biodiversite-capitalisme/feed/ 16
Les algorithmes ont-ils pris le contrôle des marchés financiers? http://owni.fr/2011/01/21/les-algorithmes-ont-ils-pris-le-controle-des-marches-financiers/ http://owni.fr/2011/01/21/les-algorithmes-ont-ils-pris-le-controle-des-marches-financiers/#comments Fri, 21 Jan 2011 15:02:40 +0000 antoinechampagne http://owni.fr/?p=43350 Pour qui a vu la saga Terminator, Skynet évoque ce réseau d’ordinateurs qui, une fois devenu plus malin que les humains, décide de déclarer la guerre à notre espèce. Depuis quelques années, des logiciels informatiques, plus précisément des algorithmes extrêmement complexes, ont peu à peu remplacé les traders. Aujourd’hui, selon les dernières études, quelques 73% des transactions aux États-Unis, sont réalisées par des machines à la vitesse de la lumière. C’est le High-Frequency Trading

Le monde de la finance est particulièrement inventif. Surtout lorsqu’il s’agit de créer les conditions d’une crise financière globale. Il y a eu la crise de l’immobilier, celle d’Internet, des “Subprimes”. Il y aura probablement celle du High Frequency Trading (HFT).

Développée dans une relative discrétion, cette technique permet de gagner sans prendre de risques. On embauche des mathématiciens, des astrophysiciens, des statisticiens –paradoxalement peu de traders ou de financiers- et on leur demande de réaliser des algorithmes d’acheter et vendre en quelques microsecondes (une microseconde = un millionième de seconde).

« On achète et on vend à une vitesse telle que l’on peut générer quasiment à coup sûr des petits bénéfices sur chaque transaction. Et comme c’est récurrent, mis bout à bout, ça fait des millions et des millions. Le premier qui commet une erreur sur un marché est immédiatement sanctionné car ces programmes informatiques réagissent bien plus vite que des hommes », explique un banquier. Un autre raconte :

La seule fois où ça n’a rien rapporté, c’est le jour où les types ont oublié de lancer les programmes. On en rigole encore

Exemple simple : la même valeur peut être cotée sur deux marchés (Paris et New York par exemple), mais le cours peut être très légèrement différent pendant quelques microsecondes. Les algorithmes repèrent ces différences, achètent au prix bas et revendent au prix haut en une fraction de seconde.

Pour certains, la bonne santé des banques pour ce qui est de leur activité de marché serait imputable au développement du HFT. Les banques empruntent à un taux proche de zéro, revendent à un peu moins de 4%. De l’argent gratuit qui peut être réinvesti sur les marchés, via la HFT. Jusqu’au moment où le HFT part en vrille… C’est d’ailleurs ce qui s’est passé le 6 mai dernier à New York, lors d’un épisode depuis surnommé « Flash Crash ». L’indice global avait alors perdu 9% en séance, avant de se refaire. Le tout, sans aucune raison évidente. Sauf à considérer que les algorithmes ont été arrêtés et que le marché s’est asséché.

On est très loin des marchés financiers qui soutiennent l’économie réelle. Selon Nanex, une petite société américaine de diffusion de flux de données boursière a analysé des années de données à la recherche d’incongruités liées au HFT. Elle a ainsi mis en évidence que certaines places boursières avaient fourni jusqu’à 5.000 cours pour un seul titre en une seconde. On cherchera longtemps le lien avec l’économie réelle.

Mieux, Nanex a mis en lumière la dernière arme des acteurs du HFT. Depuis des années, ils se livrent à une course aux armements visant à gagner des microsecondes sur les concurrents. Cela est passé par l’achat de machines plus performantes, plus rapides, par l’embauche à prix d’or de créateurs de scenarii ou d’algorithmes, par le raccourcissement des câbles. Cela a fini par la mise en place de centres serveurs en colocation au cœur des marchés financiers. Que faire pour aller plus vite que le voisin ? Simple, l’inonder de données pourries. Un déni de service au cœur de la finance. Un acteur va ainsi envoyer des milliers d’ordres d’achats qu’il annulera dans la microseconde. Les autres algorithmes seront obligés de traiter ces informations et seront ralentis… C’est le « quote stuffing ».

La SEC (autorité des marchés américaine) qui se penche sur ce sujet sans pour autant interdire le HFT a pondu un rapport comique sur le flash crash du 6 mai. On peut y lire ceci :

Le “high-frequency trading” peut générer plus de un million de transactions en un seul jour et représente maintenant plus de 50% du volume du marché des actions. De nombreuses entreprises génèrent plus de 90 ordres pour une seule transaction. Autrement dit : une entreprise qui effectue un million de transactions par jour peut soumettre plus de 90 millions d’ordres annulés.

En d’autres termes encore, le « quote stuffing » est prépondérant sur les marchés.

Bien entendu, les investisseurs individuels sont les escargots des marchés, ceux qui permettent en partie au HFT d’être aussi rentable. Tout est pour le mieux.

Cerise sur le gâteau, les algorithmes ne perçoivent pas de bonus en fin d’année…

>> photos flickr CC Deutsch Bank AG ; artemuestra

]]>
http://owni.fr/2011/01/21/les-algorithmes-ont-ils-pris-le-controle-des-marches-financiers/feed/ 28
Crise de la dette: l’Europe en panne de solutions http://owni.fr/2011/01/21/crise-de-la-dette-leurope-en-panne-de-solutions/ http://owni.fr/2011/01/21/crise-de-la-dette-leurope-en-panne-de-solutions/#comments Fri, 21 Jan 2011 14:33:14 +0000 Xavier Malakine http://owni.fr/?p=42877

Depuis la crise grecque, toute l’énergie des dirigeants européens a été consacrée à neutraliser la spéculation des marchés afin de contenir l’effet d’emballement du processus d’insolvabilité. Le fonds de solidarité européen a été conçu pour permettre de prêter à un taux raisonnable les liquidités nécessaires aux États en difficulté. Il est donc censé donner un peu de temps aux États pour remettre leur finance en ordre afin de pouvoir retourner au plus vite se financer sur les marchés. Le problème est que ces États ne connaissent pas une difficulté passagère consécutive à la crise, comme on voudrait nous le faire croire. Comme on l’a déjà vu, ces États glissent lentement mais sûrement sur la pente de la banqueroute.

On ne fait que d’essayer de gagner un peu de temps pour repousser le problème à plus tard en espérant que le cataclysme prévisible ne se produise pas. Mais que se passera t-il après 2013 lorsque les dettes des États seront considérées comme officiellement à risque ? Les États en difficultés pourront-ils même encore se financer sur les marchés ? Nul ne le sait.

Les dirigeants européens ont-ils conscience de la gravité de la situation ? On pourrait être tenté de répondre par la négative lorsqu’on écoute les propos lénifiants de nos ministres qui s’évertuent à présenter cette crise comme une guerre du politique contre la spéculation financière. Pourtant les déclarations des dirigeants allemands qui refusent de toutes leurs forces une « Europe de transferts financiers » laissent à penser du contraire. Eux semblent avoir compris la vraie nature de la crise, même s’ils refusent toutes les solutions proposées par leurs partenaires.

La vérité est que personne n’a à ce jour de solution et qu’en réalité, il n’y a pas de bonnes solutions.

De l’austérité naîtra de nouvelles crises financières

La première solution qui a été mise en œuvre en accompagnement des plans dit de « sauvetage » a été d’imposer aux populations concernées un drastique plan d’austérité. Solution somme toute logique. Ces pays ont vécu trop longtemps au dessus de leurs moyens. Ils doivent donc ramener leur niveau de vie au niveau de richesse que leur économie produit de manière endogène.

Les plans de rigueur ne visent pas seulement en effet à réduire le déficit public. Les hausses d’impôts, les réductions des dépenses publiques et les baisses de salaires ont pour objet plus profond de réduire la consommation, donc les importations et ainsi de contribuer à ramener la balance courante vers l’équilibre afin de casser le moteur du surendettement.

Cette politique n’est naturellement pas sans dommages, non seulement pour les peuples, leur niveau de vie et de protection sociale, mais aussi pour l’économie elle-même. L’austérité, par la contraction économique qu’elle implique, fait monter le taux de chômage et accélère les faillites d’entreprises. Ainsi, des acteurs économiques « normalement » endettés peuvent devenir du jour au lendemain, insolvables. Appliquée à des pays ayant un taux d’endettement privé excessif, cette purge présente le risque de transformer de bonnes dettes en créances irrécouvrables et donc en pertes pour le système bancaire. L’Espagne et le Royaume-Uni, qui se trouvent tout deux dans cette situation, risquent donc fort d’entraîner une nouvelle crise financière qui se propagera dans toute l’Europe.

En outre, une généralisation des politiques de rigueur dans un contexte où demande est déjà atone aura pour effet d’instaurer un climat récessif sur tout le continent, ce qui ne pourra que favoriser la contagion de la crise à d’autres pays. Lorsque la rigueur concerne de petits pays, la contraction de la demande n’a guère d’effet. Mais si tout le monde se met à se serrer la ceinture sur le continent en même temps sans qu’une grosse économie ne compense en se mettant à consommer, l’Europe s’engagera dans une spirale dépressive et déflationniste sans fin.

En tout état de cause, si le « théorème d’Artus » est juste, ces cures d’austérité, aussi douloureuses et risquées soit-elles, apparaissent cependant inévitables pour les pays concernés pour corriger rapidement le déséquilibre de leur balance courante.

L’ineptie des « Eurobonds »

Pour juguler la crise des dettes souveraines, certains proposent des « Eurobonds » c’est-à-dire une émission de dette publique effectuée en commun et solidairement par l’ensemble des pays de la zone euro pour financer une partie de leur dette. On pourrait imaginer par exemple que les Etats membres puissent financer leur dette par des Eurobonds jusqu’au plafond autorisé par les critères de Maastricht (60% du PIB)

Ce mécanisme s’inscrit dans cette lecture européiste un peu mécanique de la crise. Beaucoup d’européistes refusent de reconnaître les tares de la construction de l’Euro et de l’union européenne pour se réfugier dans cette posture toujours très pratique et très appréciée des psychorigides, qui veut que lorsqu’une politique a échoué c’est toujours parce qu’elle n’a pas été assez loin. Appliquée à la crise financière européenne, ce discours conduit à affirmer que l’euro est une bonne monnaie mais qui souffre d’un défaut de coordination des politiques économiques. On ne sortirait donc de la crise que par le haut, par plus d’Europe, plus d’intégration, plus de solidarité.

Techniquement, cette proposition ne résiste pas à l’analyse. Elle n’apparaît que comme une posture destinée à exprimer un résidu de foi dans le projet européen sans apporter la moindre solution aux problèmes. Il est heureux que l’Allemagne, devenue le fer de lance du souverainisme en Europe, s’y soit fermement opposée.

Le niveau de la dette et des besoins de financements des différents Etats n’est pas identique pour tous. Les pays les plus endettés et donc les plus fragiles devront continuer à se financer seuls sur les marchés pour la partie la plus risquée de leur dette, ce qui reviendrait certainement à leur faire payer des taux d’intérêts usuraires. Au final, cette solution risque d’être perdant-perdant. Les Etats sûrs, comme l’Allemagne ou la France, verraient leur taux d’intérêt augmenter et les Etats fragiles payer des taux d’intérêts excessifs sur la partie de leur dette excessive au regard des critères européens.

Si l’on voulait financer l’intégralité de la dette par les obligations communautaires, cela impliquerait nécessairement une discipline budgétaire de fer, et concrètement la mise sous tutelle des pays en difficultés et une totale perte de souveraineté budgétaire pour tous. Un gigantesque pas en avant dans la direction du fédéralisme le plus technocratique !

Cette solution n’aurait de sens que si on avait à faire à une crise spéculative transitoire et sans fondements économiques réels. Mais si l’un des Etats devait être amené à faire défaut, ses voisins seraient amenés à se substituer à lui pour honorer sa dette.

La question peut éventuellement se poser en cas de crise bancaire et la nécessité de renflouer les banques d’un pays confronté à un important taux de défaut sur la dette privée afin d’éviter la contagion à l’ensemble du système. Mais dans ce cas, on peut imaginer d’autres solutions comme une intervention de la BCE pour racheter des titres de dette pourries, à l’image de ce qui s’est fait aux Etats-Unis en 2008.

En revanche, la solution ne fonctionne pas dans le cas d’un Etat en situation d’insolvabilité structurelle et permanente. Si un pays s’avère incapable de stabiliser son taux d’endettement public, la stabilisation du taux d’intérêt auquel il emprunte ne suffira pas à le sauver. Il sera tôt ou tard étranglé par le montant des intérêts à verser. Dans un tel cas de figure c’est un transfert financier permanent entre les pays excédentaires et les pays déficitaires qu’il faut mettre en place.

La solidarité européenne, c’est NEIN !

Cette solution procède d’une grille de lecture fédéraliste, souvent développées par Patrick Artus dans ses notes. Dans une union économique et monétaire, il est normal que certains pays, les plus compétitifs, se spécialisent dans la production et concentrent sur leur sol l’essentiel de la base productive de la zone, pendant que d’autres se désindustrialiseraient et se spécialiserait sur les services domestiques (tourisme, immobilier …) Ces derniers n’étant pas exportables, les pays désindustrialisés connaissent donc logiquement un déficit structurel massif de leur balance courante, ce qui les conduira à la banqueroute sans transfert financiers permanent.

Il s’agirait de reproduire à l’échelle du continent les mécanismes de circulation de la richesse qui existent au sein d’une nation. Si les transferts privés ne suffisent pas (migration des retraités, tourisme) il faudra organiser le transfert des régions productives vers les régions de consommation par la fiscalité et le budget. Cette solution se traduirait par la montée en puissance du budget européen avec soit un renforcement des compétences de transferts (politique régionale, fonds structurels) soit le développement de nouvelles compétences et pourquoi pas de « service publics européens ». Ce budget pourrait même être financé par une fiscalité propre européenne qui ferait mécaniquement davantage contribuer les territoires riches que territoires pauvres.

Cette belle et grande idée, universaliste et partageuse, va probablement nous être rabâchée pendant toute la campagne présidentielle tant elle correspond bien à l’esprit français, surtout s’il est de gauche, européen et opposé aux « égoïsmes nationaux ». Certains nous présenteront ce fédéralisme budgétaire comme une révolution ou une formidable avancée de la construction européenne. Il ne s’agira en réalité que d’un avatar du très vieux « L’Allemagne paiera » qui n’a naturellement aucune chance de voir le jour.

Les Allemands, qui ont très bien perçu le risque, ont d’ores et déjà clairement indiqué qu’ils préféreraient quitter l’Euro que de payer pour les mauvais élèves de la zone. On ne peut guère leur donner tort. Non seulement la Grèce n’est pas pour l’Allemagne, ce que la Haute Marne est à Rhône-Alpes, mais ce projet entre en contradiction frontale avec l’esprit et la lettre de la construction européenne depuis toujours, laquelle n’a jamais été fondé que sur le principe de concurrence, de compétition des systèmes sociaux, dans une logique de chacun pour soi dans la mondialisation.

Quand bien même on voudrait percevoir pour des raisons idéologiques l’Europe comme une nation unifiée où pourrait s’exprimer la solidarité entre riches et pauvres, et la France comme une simple région de ce grand ensemble, il conviendrait de s’inquiéter du sort de notre pays et des emplois qu’il pourra encore produire dans ce schéma où la spécialisation serait totale.

La vocation de la France ne risque t-elle pas en effet à se limiter à une vaste zone touristique et de villégiatures pour riches retraités, où les seuls emplois qualifiés se trouveront dans quelques rares métropoles capables d’accueillir les fonctions de commandement de quelques grands groupes à taille mondiale.

Fort heureusement, les Allemands ne veulent pas d’une telle Europe. On ne peut que les en remercier !

La réindustrialisation par la compétitivité

Fondamentalement la crise actuelle prend sa source dans la désindustrialisation du continent. Les pays aujourd’hui menacés ont trop laissé se dévitaliser leur base productive. Ne pouvant plus exporter l’équivalent de ce qu’ils importent, leur échanges avec le reste du monde sont devenus structurellement déficitaires. Il s’agit là probablement de l’erreur économique majeure du modèle de la mondialisation libre-échangiste.

Trop exclusivement préoccupés par le niveau global de l’emploi, les Etats ont ne se sont plus souciés de leur nature. Plus la part d’emploi industriel devenait faible et plus les emplois de services non exposés à la concurrence internationale (et donc produisant des biens ou service non exportables) devenaient prépondérants, plus l’industrie a été négligée et traitée comme une activité marginale en terme de création d’emploi, appartenant au passé et condamnée à disparaître au profit d’une nouvelle économie de services. La crise actuelle rappelle la nécessité pour toute économie de pouvoir équilibrer ses échanges extérieurs. Malheureusement, peut-être un peu tard.

La dégradation des échanges extérieurs des pays en difficulté est une conséquence du phénomène d’euro-divergence qui a vu certains développer des excédents et d’autres du déficit. Ce phénomène peut être vu comme Patrick Artus comme inhérent à l’union économique et monétaire. On peut également y voir comme Jacques Sapir la conséquence d’une politique non coopérative excessivement agressive de l’Allemagne qui a gagné des parts de marché au détriment de ses voisins. Bien évidemment, ce n’est pas l’interprétation officielle qui est retenue dans les cercles autorisés. Encore une fois, c’est la position allemande qui sert d’étalon.

On ne saurait en effet reprocher dans l’union européenne et la mondialisation à un pays d’avoir comprimé les salaires et le pouvoir d’achat, réduits les droits sociaux et massivement délocalisés et d’être devenu “trop compétitif”. Le problème vient nécessairement des perdants qui se sont trop laissé aller. Il leur appartient donc de suivre le même chemin que l’Allemagne avec 10 ans de retard avec une bonne et saine politique de rigueur salariale et budgétaire et avec une politique industrielle un peu plus offensive (effort de recherche et d’innovation, recherche de marchés à l’export, réduction de la fiscalité sur les entreprises, intensification de la qualification de la main d’oeuvre …)

Si le premier terme du programme s’assimile aux politiques d’austérité déjà examinées plus haut, le second ne saurait être balayé d’un revers de main. La compétitivité industrielle ne se résume pas qu’au paramètre « coût ». Les pays déficitaires – et notamment la France – seraient bien inspirés de s’attacher un peu plus à la montée de gamme de leur appareil industriel

Le problème c’est que de maintenir sa compétitivité et reconstituer une base productive qui a disparu, n’est pas du tout la même chose ! Lorsque l’Allemagne a engagé sa course à la compétitivité, elle disposait d’une base forte et d’un appareil industriel performant. Tel n’est plus le cas des pays qui ont préféré miser sur les emplois semi-aidés de service à la personne, dans le tourisme, l’hôtellerie, la restauration ou la construction immobilière. Recréer des PME exportatrices performantes, un appareil de formation professionnelle orienté sur les métiers productifs et une culture de la conquête des marchés extérieurs ne sera pas des plus faciles.

Compte tenu de l’avance prise par l’Allemagne, l’exercice apparaît perdu d’avance dans le cadre de l’actuel carcan européen, avec finances publiques en ruine, une surveillance tatillonne de la commission sur les aides aux entreprises, avec une monnaie surévaluée et dans un contexte de libre échange intégral où toutes les activités productives sont devenues des nomades déracinés dont les décisions de localisation ne sont dictées que par la loi du profit maximum.

La solution des deux Euros

Pour finir ce panorama des solutions officielles, je ne résiste pas à dire un mot d’une proposition initialement défendue par l’économiste Christian Saint-Etienne et récemment reprise avec force par l’ancien patron des patrons allemands Han-Olaf Henkel. Elle consiste à scinder la zone euro en deux pour regrouper au sein d’une même monnaie les pays excédentaire et dans une autre les pays déficitaires.

Du point de vue allemand, il ne s’agit que de repousser hors de leur zone les pays à problèmes pour être certain de ne pas être amené à les renflouer. Du point de vue Français, il ne s’agit ni plus ni moins que de l’idée vague d’union latine déjà évoquée ici à la faveur d’échanges avec Jacques Sapir.

Je n’examinerais pas ici en détail cette hypothèse dans la mesure où elle n’apporte en elle-même aucune solution économique aux problèmes posés. En revanche, elle comporte une dimension politique évidente en cas d’explosion, non pas seulement de la zone euro mais de l’union européenne elle-même. Elle préfigure une nouvelle Europe multipolaire dont les centres seraient Moscou, Berlin, Paris et Londres avec quelques zones de transitions plus ou moins satellisées. Et surtout elle acterait un divorce définitif du couple franco-allemand en forme de partage du continent qui ravira certainement tous les nostalgiques de l’Empire des deux cotés du Rhin.

Ayant été l’un des premiers à prôner une rupture avec l’Allemagne et à imaginer l’union latine dans la foulée en forme de porte de sortie (mai 2008) je ne peux qu’accueillir cette proposition avec sympathie et intérêt. Même si la question n’est pas d’actualité, nous devons tout de même la conserver discrètement dans un coin de notre tête comme une perspective possible pour reconstruire un nouveau système économique après l’inévitable déflagration européenne. L’enjeu prioritaire reste cependant de l’éviter.

A mesure que la crise progresse, on entend de plus en plus défendre des solutions hétérodoxes qui auraient été impensables il y a encore un an.

Le défaut sur les dettes publiques, une fausse bonne idée.

Les Allemands, qui ont bien compris le caractère structurel de la crise des dettes souveraines ont proposé d’accompagner les prochains plans dit « de sauvetage » par un mécanisme de défaut afin de faire partager la note avec les investisseurs trop imprudents.

Cette proposition a priori séduisante comporte toutefois bien des inconvénients. En premier lieu, elle tend à rendre les marchés extrêmement nerveux ce qui les poussent à majorer les primes de risques qu’ils exigent. Cette prise de position a d’ailleurs grandement contribué à favoriser la contagion de la crise à l’ensemble des pays en difficultés. A quel niveau monteront les taux d’intérêts sur les dettes publiques des pays à la solvabilité douteuse, lorsque les dettes publiques seront officiellement risquées ? Les pays concernés pourront-ils même encore arriver à se financer sur les marchés ? On entre là en terre inconnue.

En outre, nul ne sait exactement quel est l’ampleur des dettes irrécouvrables toute nature confondues en Europe. Si le volume des pertes à faire subir au système bancaire est limité, celui-ci pourra le supporter sans faillir. Mais rien n’est moins sûr. Frédéric Lordon dans son dernier texte, prédit une faillite généralisée des banques en cas de généralisation du défaut des Etats !

Plus profondément, la proposition souffre du même vice que celle des Eurobonds. Elle ne fonctionne qu’en cas de difficulté ponctuelle mais est inopérante en cas d’insolvabilité structurelle. Admettons qu’un pays surendetté fasse défaut et bénéficie de prêts garantis par ses voisins européens. Il devra quand même pouvoir remettre son économie sur pied pendant la durée où ses besoins de financement seront assurés par les mécanismes de solidarité, afin de pouvoir revenir ensuite sur les marchés financiers avec de solides garanties !

Il y a enfin quelque chose de profondément paradoxal d’attendre des Etats qu’ils épongent les pertes des banques en les recapitalisant, puis d’accepter que ceux-ci une fois trop endettés leur fasse subir des pertes qui pourraient de nouveau leur être fatales.

Si in fine, la solution est de recourir massivement à la création monétaire pour recapitaliser les banques après leur faillite comme le propose Lordon dans son scénario, pourquoi ne pas utiliser cette arme avant, afin d’éviter le cataclysme financier ?

La monétisation des dettes, oui mais comment ?

La solution de la monétisation massive des dettes publiques est aussi une idée qui fait son chemin depuis quelques temps, bien que davantage sur la toile que dans les milieux autorisés. Le fait que les Etats-Unis aient décidé de recourir massivement à la planche à billets pour faciliter le financement leur économie (lourdement et structurellement déficitaire) a quelque peu contribué à légitimer cette solution hétérodoxe. Elle se recommande en effet d’arguments valables.

Les créances irrécouvrables auxquelles il s’agit de faire face s’analysent comme de la monnaie-dette qui a été émise en excès sur la base d’une promesse de création de richesse qui n’a finalement jamais eu lieu. En cas d’insolvabilité de l’emprunteur, cette (fausse) monnaie, au lieu d’être détruite normalement par le remboursement des prêts à partir de revenus réels, va l’être soit par destruction de capital (les titres de dettes détenues par la banque ou l’épargnant perdant brutalement toute valeur) soit par des sacrifices de l’emprunteur obligé de suer sang et eaux pour rembourser ou de vendre des bijoux de famille. Dans les deux cas, le défaut sur la dette se traduit par une destruction de richesse. A grande échelle, le défaut sur les créances irrécouvrables peut s’avérer cataclysmique.

La création monétaire, en organisant la substitution de monnaie-dette émise en excès par de la vraie monnaie définitive, peut alors permettre d’atténuer cette destruction de richesse.

La création monétaire peut prendre deux formes assez différentes. Elle peut se faire a priori, par un prêt de la banque centrale que l’Etat va injecter dans l’économie via ses dépenses budgétaires, ou bien a posteriori par le rachat par la banque centrale de titres de dettes ne valant plus rien sur les marchés.

Cette technique est diabolisée car supposée susciter de l’inflation, voire de l’hyperinflation, ce qui continue d’effrayer les Allemands près d’un siècle après la République de Weimar. Cette technique peut également avoir pour effet de déprécier la valeur de la monnaie, ce qui ne convient pas davantage aux tenants d’une monnaie forte que sont nos amis d’outre-Rhin.

La crainte de l’inflation ne paraît guère fondée dans le contexte actuel. En effet, si le montant de la création monétaire se limite à celui des créances irrécouvrables, il ne s’agira que de maintenir la masse monétaire en circulation, en évitant la brusque destruction de capital qu’entraîneraient les défauts. En outre, l’inflation est bien davantage causée par un excès de demande sur l’offre que par un accroissement de la masse monétaire. La création monétaire ne participe à l’inflation que dans la mesure où elle contribue à stimuler artificiellement la demande. Or dans une mondialisation où les capacités de production apparaissent illimitées (exceptions faite des ressources naturelles bien sûr), le déséquilibre entre la demande et l’offre ne se traduit plus par de l’inflation mais par du déficit extérieur, ce qui dégradera la solvabilité globale du pays ! Là se trouve le véritable danger d’une création monétaire excessive.

La création monétaire apparaît donc absolument nécessaire pour favoriser une sortie en douceur de la crise financière larvée que connaît l’Europe, mais l’outil doit être manié avec la plus grande des précautions sous peine d’aggraver le mal qu’il s’agit de combattre.

Dans le cas présent, les deux formes de création monétaire doivent être bien distinguées. La création « a posteriori » constituée par le rachat par la banque centrale de titres de dettes plus ou moins pourries semble la meilleure solution. Elle permet de recapitaliser les banques strictement à hauteur des pertes potentielles au fur et à mesure que celles-ci se manifestent, de manière à limiter la brutalité de la destruction de capital. Cette technique ne contribue ni à l’accroissement de la masse monétaire en circulation, ni à stimuler artificiellement la demande. La recapitalisation des banques à la hauteur de leurs pertes ne heurte guère l’objection de l’aléa moral dans la mesure où les bulles d’endettement peuvent être aisément imputées à la responsabilité de l’Europe qui a trop longtemps fermé les yeux sur l’importance de l’endettement privé et le déséquilibre des balances courantes, pour ne s’attacher que trop exclusivement  au niveau de l’endettement public.

Cette technique a été massivement pratiquée par la Fed au moment de la crise des subprimes par le rachat de créances immobilières douteuses. Elle est également utilisée par la BCE depuis le déclenchement de la dette souveraine. Elle fait incontestablement partie de la palette des solutions à privilégier. Il est à noter que la solution préconisée par Lordon (défaut sur les dettes publiques, faillite des banques, renationalisation et recapitalisation par création monétaire) procède de la même logique.

Beaucoup plus délicate est en revanche la solution de la création monétaire via des prêts à taux nuls que consentirait la BCE aux Etats membres. Elle aurait naturellement l’avantage de protéger les Etats contre une flambée des taux d’intérêt auxquels leur prêtent les marchés, bien plus efficacement que le mécanisme de prêts mutualisés ou les Eurobonds. Les Etats, directement financés par la BCE seraient en effet définitivement à l’abri de toute insolvabilité et de toute spéculation sur leurs taux d’intérêts.

Outre la difficulté à organiser une telle politique dans le cadre européen compte tenu de l’hétérogénéité des situations et le très probable véto allemand, elle se heurterait aussitôt au « théorème d’Artus » qui veut que “si un pays connaît un déficit structurel de ses échanges extérieurs, il est condamné tôt ou tard à l’insolvabilité d’un de ses agents économiques, soit les ménages, soit les entreprises, soit l’Etat et donc à des crises financières à répétition”.

Cette solution ne pourra en aucun cas exonérer les Etats déficitaires de la nécessité de rééquilibrer leurs échanges extérieurs afin de restaurer leur solvabilité globale, ce qui implique une contraction forte de leur demande intérieure. La création monétaire pourrait quelque peu desserrer les contraintes, atténuer la rigueur du désendettement et donc prévenir les risques de défauts sur les dettes privées, mais elle ne peut en aucun cas être une solution pérenne. Il y a en effet une contradiction entre les termes du problème. La création monétaire prévient des situations d’insolvabilité en fournissant de nouvelles ressources monétaires, mais mal utilisée, elle peut aussi stimuler la demande et ainsi contribuer à dégrader encore la balance courante qui est le principal facteur de l’insolvabilité. L’essentiel est donc moins le principe de la création monétaire que de savoir où cette nouvelle monnaie sera injecté et pour quel usage.

On ne peut donc pas exclure un soutien aux pays déficitaires par création monétaire qui ne se traduirait pas par une dégradation de la balance courante. L’exercice nécessiterait une précision chirurgicale, mais reste théoriquement possible. Il conviendrait alors que la monnaie injectée ne soutienne pas la demande pour des biens et des services importés, mais soit stimule l’offre locale, soit contribue à attirer des capitaux productifs. Cette création monétaire pourrait alors prendre la forme de fonds structurels pour la réindustrialisation des pays déficitaires.

Cette hypothèse se heurte cependant à la difficulté de restaurer une base productive lorsque celle-ci a été laminée par une décennie de mauvaise spécialisation sur l’économie de consommation et les emplois domestiques.

L’explosion de l’euro ou la thérapie de choc

Puisque la monnaie unique, par les déséquilibres croissant qu’elle a suscités au sein de la zone euro, a été un des puissants facteurs de la crise actuelle, sa suppression constituerait-elle alors la solution à privilégier ? Certains militent activement pour cette option, particulièrement Laurent Pinsolle et son parti Debout La République, qui a fait de la sortie de l’Euro son cheval de bataille.

La proposition paraît pourtant quelque peu simpliste. Ce n’est pas en supprimant les causes d’un problème qu’on répare les dégâts qu’il a causé. Penser cela c’est un peu comme croire que le cancer du poumon d’un gros fumeur va se soigner par l’arrêt de la cigarette. Le fumeur peut arrêter, il aura non seulement toujours son cancer, mais il devra en plus faire face à une insupportable sensation de manque !

Rappelons les effets attendus de cette théorie : En sortant de l’Euro, les pays déficitaires pourront de nouveau dévaluer, ce qui rétablira leur compétitivité et permettra d’alléger leur dette. Ils pourront en effet convertir souverainement la dette contractée en euro, en monnaie nationale dévaluée, retrouver la possibilité de monétiser leur dette publique en empruntant directement auprès de leur banque centrale.

Cette thèse est clairement affectée par le biais individualiste. La solution fonctionne pour un Etat isolé, mais absolument pas si elle est généralisée par tous !

1. La dévaluation de la dette contractée en euro s’assimile à un défaut partiel sur les dettes, ce qui ne manquera pas de dégénérer en crise bancaire et financière, qui se soldera par une destruction d’épargne et in fine par la nécessité de recapitaliser les banques. Or, il est évident que ce genre d’opération sera bien plus facile dans un cadre européen avec une quasi monnaie de réserve internationale, que dans un cadre national avec une monnaie nationale franchement ressuscitée.

2. La dévaluation généralisée des monnaies des pays déficitaires s’analysera comme une mesure d’appauvrissement brutal des économies concernées. Même s’il ne s’agira que de prendre acte d’une dégradation réelle de la compétitivité des pays concernés, l’ajustement s’effectuera de manière violente. Les importations seront immédiatement renchéries, y compris celles qui sont incontournables ou non substituables, ce qui se traduira par une perte de pouvoir d’achat et une contraction de la demande intérieure. Dans la mesure où ces économies sont davantage des économies de consommation que des économies de production, la contraction de la demande se traduira immédiatement par un accroissement du chômage.

3. La dévaluation généralisée entraînera par extension, une contraction vive de la demande globale en Europe, qui reviendrait à une concurrence exacerbée sur les coûts. Les dévaluations fermeraient les débouchés pour les exportations des voisins et accentueraient la concurrence pour leurs productions, ce qui ne manquera pas de causer quelques traumatismes dans l’appareil productif des pays voisins. Imaginons par exemple le sort des producteurs de fruits et légumes français concurrencés par des productions espagnoles rendues hypercompétitives par une pesetas dévaluée …

4. La monétisation des dettes publiques ne fera que déplacer le problème des taux d’intérêt sur la dette privée. Un pays dont la balance courante est déficitaire est contraint d’emprunter sur les marchés de capitaux les devises nécessaires au financement de ses acquisitions à l’extérieur. Plus les besoins seront importants et moins sûr sera la solvabilité de l’emprunteur, plus ces taux seront élevés. Un retour des pays déficitaires à leurs monnaies nationales se traduira immédiatement par une envolée des taux d’intérêts bancaires, avec des effets destructeur sur l’appareil productif qui s’agissait pourtant de stimuler.

5. Ce scénario n’aura des effets positifs que dans la mesure où la dévaluation permettrait un redéveloppement de la base productive. Or, non seulement il est délicat pour un pays de reconstituer une industrie qui a disparue ou qui n’a jamais existé, mais dans un contexte de contradiction globale de la demande européenne, il est évident que la production européenne ne pourra pas croître globalement. Tous les pays ne pourront pas s’avérer gagnants au petit jeu de la réindustrialisation par la course à la compétitivité-coût.

6. L’explosion de l’Euro produira un ajustement brutal des coûts de production au regard de la réalité de la force des différentes économies. Les produits allemands seront plus chers, les italiens moins chers, les espagnols encore moins …  Cela entrainera une grande redistribution des cartes dans la localisation de l’appareil productif, ce qui se traduira par un nouveau train de délocalisation. Bien malin celui qui peut dire à l’avance qui seront les gagnants et les perdants d’une telle opération ! L’entreprise allemande qui sera pénalisée par un Mark réévalué, va-t-elle continuer à pouvoir exporter plus cher grâce à la qualité du made in germany ? Va-t-elle se déplacer de l’autre coté de la frontière en Alsace ou en Moselle ? Ou va-t-elle se délocaliser dans un quelconque paradis fiscal, salarial ou social, en Irlande, en Espagne en Europe centrale ou carrément en Asie ?

7. En outre, il n’est pas du tout certain que la France ait vraiment intérêt à dévaluer. Il est en tout état de cause certain que la dévaluation sera bien moindre en France où le déficit de la balance courante n’est que de 1% quand il est de 10% en Espagne, au Portugal ou en Grèce. Il est probable que les effets négatifs sur le pouvoir d’achat, la consommation, l’emploi dans l’économie domestique, la fermeture des marchés des pays qui dévalueront plus et le surcroît de concurrence qu’ils lui feront subir, l’emporteront sur le petit gain en termes de compétitivité coût qu’elle entrainerait sur sa base productive déjà laminée. Compte tenu de son niveau de déficit extérieur, la France aurait surtout intérêt à développer (enfin) des politiques publiques efficaces au service de son appareil industriel et en particulier de ses PME !

L’objectif poursuivi par la sortie de l’Euro est juste. Il faut rapidement que chacun des pays de la zone retrouvent un équilibre de leur balance courante et pour cela, il faut que les monnaies puissent être régulièrement réajustables entre elles. Cependant, l’Eurodivergence a produit un tel niveau de déséquilibres internes qu’un ajustement par révision des taux de change entre les monnaies nationales, défaut partiel sur les dettes et contraction des demandes internes des pays déficitaires produira un choc très violent pour toute l’économie européenne. Cette solution constituerait une « thérapie de choc » à l’image de celle qui a été infligée aux économies des pays de l’Est au sortir de l’union soviétique, avec les mêmes chances de succès et les mêmes conséquences sociales. L’explosion de l’euro c’est le scénario de la déflagration, la politique du pire.

Le retour à l’équilibre « homéostasique » des économies nationales (désendettement et rééquilibrage des balances courantes) est indispensable, mais il gagnerait à s’effectuer de la manière la plus progressive possible, et donc si possible, dans le cadre de l’Euro et d’une Union Economique et Monétaire réformée.

Vers un protectionnisme national rustique ?

On ne parle plus guère de protectionnisme depuis quelques temps. Il se pourrait bien pourtant que la solution la plus efficace soit à chercher dans cette direction. Non pas un protectionnisme européen qui ne résoudrait en rien le phénomène d’eurodivergence, ni même un protectionnisme tarifaire qui emporterait les mêmes effets qu’une dévaluation généralisée, mais un protectionnisme national et radical qui aurait pour objet de localiser autoritairement une partie de la base productive sur les zones de consommation. C’est encore le plus sûr moyen de réindustrialiser rapidement une économie déficitaire.

Toute l’économie n’est pas soumise à la concurrence internationale. L’économie des services domestiques y est par nature préservée. Pourquoi alors l’intégralité de l’économie productive devrait être considérée comme mobile, allant et venant au gré des perspectives de profits offertes par les différents sites ? Ne pourrait-on pas circonscrire le champ de la concurrence internationale aux produits pour lesquels elle est inévitable ou souhaitable et considérer que certains produits ont vocation à être produit localement sur les zones de consommation ?

S’il peut être plus intéressant d’acheter à l’étranger les produits à haute intensité de main d’œuvre que de mobiliser des ressources pour les produire soi même ou les produits qui évoluent sans cesse pour ne pas se couper des dernières innovations, on ne voit guère l’intérêt d’appliquer la plus extrême des concurrences à des produits technologiquement mûrs ou qu’il est écologiquement absurde de faire transiter sur de longues distances. C’est bien cette concurrence totalement inutile qui entraîne une pression à la baisse sur les salaires, favorise toujours le moins disant et conduit les économies les moins préparées à la compétition à la ruine. La concurrence par la qualité, oui ! La concurrence sur les coûts au seul bénéfice de la maximation du taux de profit, non !

Les productions lié à l’équipement du foyer (électroménager, ameublement, matériaux de construction, équipements énergétiques et en particulier photovoltaïque …) pourraient être relocalisées autoritairement sur les zones de consommations, à la fois dans le but de réindustrialiser les économies déficitaires, limiter ainsi leur dépendance au monde extérieur et les doter en nouveaux emplois productifs qualifiés. Ainsi toute nouvelle bulle immobilière ou stimulation budgétaire du secteur de l’immobilier (notamment pour favoriser sa conversion écologique) entraînera mécaniquement le secteur productif sans dégrader la balance courante.

L’Europe pourrait alors conduire un programme de relocalisations industrielles. Ce plan définirait un délai au terme duquel certaines productions répondant à certains critères définis au niveau européen pourront être fermés au commerce international par décision des Etats membres. Cette réindustrialisation à marche forcée serait financée par de nouveaux fonds structurels européens dédiés aux investissements productifs. Ces fonds seraient alimentés soit par contribution des Etats excédentaires, soit par création monétaire bénéficieraient aux pays déficitaires au prorata de leurs déficits.

La réindustrialisation forcée permettrait d’attirer des capitaux productifs et donc de contribuer à rééquilibrer la balance courante des pays déficitaires, puis une fois les usines mises en service réduire durablement les risques de déficit structurel, même en cas de dégradation de la compétitivité.

J’ai voulu au travers de cette longue analyse de tenter de restituer ce que j’ai cru comprendre de la dite « crise de l’Euro » de la manière la plus synthétique et simple possible, sans chercher à « vendre » aucune solution. J’espère que ce travail pourra contribuer à la compréhension du problème et à aider chacun à se faire sa propre opinion sur les solutions à mettre en œuvre.

Cet article est une compilation de 2 articles publiés sur le blog de Malakine (ici et ici)

>> photos flickr CC Dan Simpson ; Wayne Leng ; Markus Ram ; Paul Nicholson ; Alan Cleaver ; Christopher Cozier ; William Murphy

]]>
http://owni.fr/2011/01/21/crise-de-la-dette-leurope-en-panne-de-solutions/feed/ 10
Facebook : de la rationalité des chiffres et de l’irrationalité des marchés http://owni.fr/2011/01/07/facebook-de-la-rationalite-des-chiffres-et-de-l%e2%80%99irrationalite-des-marches/ http://owni.fr/2011/01/07/facebook-de-la-rationalite-des-chiffres-et-de-l%e2%80%99irrationalite-des-marches/#comments Fri, 07 Jan 2011 10:30:04 +0000 antoinechampagne http://owni.fr/?p=41385 Incongruité : pour une fois, Facebook ne donne pas matière à réfléchir sur la confidentialité des données personnelles, mais plutôt sur la façon dont fonctionnent les investisseurs.

Le néophyte pourrait assez logiquement penser que les investisseurs sont des pros de l’analyse financière. Que leurs décisions sont guidées par une prise en compte de tous les chiffres qui fleurissent dans les colonnes des bilans des entreprises. Ce serait méconnaitre les trois composantes les plus prégnantes des marchés financiers : d’une part, les marchés sont irrationnels, contrairement à une théorie économique bien connue telle que l’efficience du marché. D’autre part, les marchés carburent au risque. Inutile, donc, de tenter de « rassurer les marchés ». Sans risque, pas de bénéfices. Enfin, les bénéfices des uns sont les pertes des autres.

Facebook vaudrait 50 milliards…

Une nouvelle a traversé le Web ces derniers jours : Facebook est valorisé à 50 milliards de dollars. Lâché comme ça, ça ne représente pas grand-chose dans l’esprit de Mme Michu. Ni dans le mien. Et peut-être pas plus dans le votre. 50 milliards de dollars, c’est 50 suivi de neuf zéros. C’est plus d’argent, nous dit-on, que la valeur de Yahoo !, Time Warner ou eBay. C’est à peu près le double de la capitalisation boursière de Dell.

Voilà qui rappelle de vieux souvenirs… Avant l’explosion de la bulle Internet, les mêmes media que ceux qui relayent ce chiffre de 50 milliards s’extasiaient en constatant que la valorisation boursière de Yahoo ! ou d’autres était supérieure à celle de Boeing (et ça recommence). Un peu de bon sens et d’analyse financière aurait bien entendu pu éviter l’explosion de la bulle Internet : un site Internet qui vaut plus cher qu’une société fabriquant des avions, avec des usines, des stocks, c’est improbable. Il y avait donc un problème.

Revenons à 2011. Un site Internet qui vaut plus cher que Dell, le premier fabriquant mondial d’ordinateurs, ça ne vous intrigue pas ? Même un site avec plein de petites applications kikoulol…

Ce qui devrait intriguer, c’est ce qui permet de valoriser une société non cotée (Facebook) à 50 milliards et ce qu’il y a derrière.

Des artifices de la finance

Le détail de l’actionnariat de Facebook n’est pas public. En outre, la forme juridique de l’entreprise étant une “Limited Liability Company”, l’équivalent de la Société à responsabilité limitée française, il ne peut y avoir plus de 499 actionnaires. La société n’étant pas cotée, ses comptes ne sont pas publics. Petit souci donc pour faire de l’analyse financière et prendre une décision d’investissement raisonnable.

La valorisation de 50 milliards repose sur les investissements réalisés par Goldman Sachs et un groupe russe, Digital Sky Technologies et sur les cours de Facebook sur des marchés « officieux ». C’est à dire que la valorisation de 50 milliards se fait au doigt mouillé. Rien de concret ne vient conforter ce chiffre.

Goldman Sachs vient d’apporter 450 millions à Facebook et va lever auprès de ses clients les plus fortunés quelque 1,5 milliard de dollars supplémentaire. Magie de l’ingénierie financière qui a si bien fait ses preuves dans la crise des subprimes, le seuil de 499 actionnaires ne sera pas franchi. Goldman va en effet créer un « instrument spécial » (Special purpose vehicle). Ses plus gros clients seront « fondus » dans ce SPV et pour la S.E.C. (l’autorité des marchés financiers aux US), même si Goldman permet à 1000 clients d’acheter des actions Facebook, il n’y aura qu’un actionnaire, ce SPV.

Mais revenons à la rationalité des chiffres. A part pour Jean-Claude Van Dame, un plus un font deux. Dans le cas de Facebook, les investisseurs, s’ils étaient rationnels, pourraient se dire qu’ils sont en présence d’une société non cotée, dont on ne connaît pas officiellement le chiffre d’affaires, qui ne vend pas grand chose d’autre que de la publicité sur Internet… Bref, pas de quoi valoir 50 milliards. Surtout que le chiffre d’affaires qui filtre ici ou là serait de 2 milliards de dollars par an. Les analystes financiers ont un indicateur qui leur est précieux : le price earning ratio (PER). Il s’agit de diviser la capitalisation par les bénéfices.

Prenons 50 milliards de « capitalisation ». Nous avons par ailleurs 2 milliards de chiffre d’affaires. Ce qui devrait laisser, avec une marge nette de 25% (évaluée avec le même doigt mouillé que la capitalisation), quelque 500 millions de dollars de bénéfices. Nous avons donc un price earning ratio de 100. Maintenant comparons ce PER à celui de sociétés cotées dont les comptes sont publics. Comme Google (24), eBay (14,5) ou Apple (22).

Il y a comme un problème…

L’un des deux chiffres (capitalisation ou chiffre d’affaires) est une blague. Probablement le premier… Dans le cadre d’une éventuelle pré-introduction en bourse, Goldman Sachs a tout intérêt à faire monter la sauce. D’une part parce que la valeur de ses investissements dans Facebook grimpe à vue d’œil au fur et à mesure que l’estimation de 50 milliards se propage (pourquoi pas 100 milliards dans 6 mois ?). D’autre part parce que la banque se projette en tant que leader pour l’introduction en bourse. De sonnants et trébuchants honoraires en perspective.

Enfin, dans le cadre du placement de 1,5 milliards d’actions via son Special purpose vehicle, Goldman pourra engranger de juteux bénéfices. Et si l’on en croit Reggie Middleton (dont les analyses économique sont souvent très intéressantes), ceux-ci seront au rendez-vous, que la valeur de l’action de Facebook s’écroule ou qu’elle s’envole.

– — –

>> Photos flickr CC Catherine isdøe ; maua_czarna ; artemuestra

]]>
http://owni.fr/2011/01/07/facebook-de-la-rationalite-des-chiffres-et-de-l%e2%80%99irrationalite-des-marches/feed/ 32
Internet du futur : vers un “cahier des charges” http://owni.fr/2009/07/22/internet-du-futur-vers-un-%e2%80%9ccahier-des-charges%e2%80%9d/ http://owni.fr/2009/07/22/internet-du-futur-vers-un-%e2%80%9ccahier-des-charges%e2%80%9d/#comments Wed, 22 Jul 2009 15:03:47 +0000 Hubert Guillaud http://owni.fr/?p=2055

“Il est essentiel que le réseau ‘universel’ qu’est l’internet conserve une architecture qui favorise l’accessibilité et l’innovation” rappelle la réponse à la [1] consultation du secrétariat d’Etat chargé de la Prospective et du développement de l’économie numérique sur l’internet du futur que publient la Fing, Silicon Sentier, l’internet Society France et plusieurs personnalités de l’internet français.

Une réponse qui pointe du doigt le danger qu’il y aurait de vouloir transformer l’internet sans comprendre comment lui-même nous a transformé.

Introduction

En réponse à la consultation publique sur l’internet du futur organisée par le secrétariat d’Etat chargé de la Prospective et du développement de l’économie numérique, la Fing,  Silicon Sentier et l’ Isoc France, ainsi qu’un certain nombre d’individualités marquantes de l’internet français, ont choisi de produire ensemble une contribution publique.

Ce groupe se compose pour l’essentiel de non-techniciens, qui ont néanmoins de l’internet un usage quotidien et professionnel pour publier, innover, produire.

Par conséquent, notre contribution propose plutôt les éléments d’un “cahier des charges” de l’internet de demain, envisagé par des “grands utilisateurs”, qu’une série de recommandations techniques précises.

Les questions posées par l’internet et ses usages ne trouvent certes pas toutes leurs réponses dans l’architecture et les technologies du réseau lui-même. Beaucoup de réponses relèveront des applications et des services, des utilisateurs et de leurs organisations, de la régulation ou de l’écologie des usages. Dans le cadre de cette consultation, nous avons choisi de nous focaliser sur ce que l’on devait demander au réseau internet – et par symétrie, sur ce qu’il vaudrait mieux ne pas lui demander.

C’est pour mieux explorer aussi ce second terme de l’alternative – ce que l’on ne devrait pas demander au réseau – que nous avons décidé d’évacuer (pour l’instant du moins) des infrastructures d’applications aussi importantes que le web. Cela nous aura notamment permis de repartir de questions trop rarement posées : qu’attendons-nous vraiment de l’internet ? Que sommes-nous prêts à sacrifier pour l’obtenir ?

Nous espérons que ce court texte apportera un éclairage utile et complémentaire des autres contributions.

Il demeure ouvert aux critiques, commentaires et enrichissements sur le site  http://internetdufutur.wordpress.com.

Daniel Kaplan, Jean-Michel Cornu et Hubert Guillaud,  Fing
Marie-Vorgan Le Barzic et Marie-Noéline Viguié,  Silicon Sentier
Gérard Dantec et Laurent Ferrali, Isoc France

Sommaire
1. A quels problèmes s’agit-il de répondre ?
2. Des non-dits qui obscurcissent le débat
3. Efficience ou universalité : au fond, que demande-t-on à l’internet ?
4. Les objets, les sujets : deux nouveaux objectifs pour l’internet du futur
5. Conclusion, les trois priorités
Liste des participants

1. A quels problèmes s’agit-il de répondre ?

Si tant de gens, dans tant de pays, réfléchissent à “l’internet du futur”, ce doit être que celui-ci rencontre des problèmes, ou qu’il devrait en rencontrer dans l’avenir. Pour envisager les directions à prendre, il est important de recenser ces problèmes, et d’en mesurer le caractère plus ou moins critique. Il faut aussi faire la part des problèmes réellement liés à la technique, de ceux qui proviennent de l’organisation de l’internet ou de ses acteurs.

Et pourtant, il marche !
Car le plus étonnant, au fond, est que pour la plupart de ses usages et de ses utilisateurs, l’internet fonctionne assez bien alors que son architecture fondamentale a fort peu changé en près de 30 ans.

Cela se fait certes au prix d’une grande complexité, distribuée à tous les niveaux : multitude d’acteurs intervenant à tous les échelons du réseau – jusqu’aux administrateurs des réseaux d’entreprises et aux utilisateurs (gestion des adresses, sécurisation, mises à jour diverses, etc.) ; multiplication des adaptations destinées à permettre au réseau d’accepter de nouveaux usages et de nouveaux utilisateurs ; “patches” liés à la sécurité, la qualité de service, la mobilité, etc. Mais il demeure que l’exceptionnelle capacité d’adaptation de l’internet, et l’extraordinaire diversité des utilisateurs et des usages pour lesquels il constitue aujourd’hui une base satisfaisante, doivent conduire à approcher toute transformation significative avec un grand discernement.

Un problème de dimension
L’une des principales difficultés que rencontre l’internet d’aujourd’hui est celle de suivre la croissance du nombre d’appareils connectés. Celle-ci traduit non seulement la croissance du nombre d’utilisateurs, celle du nombre de “terminaux” par utilisateur (beaucoup d’appareils électroniques s’équipant d’une connexion réseau), mais aussi, la multiplication d’objets et d’espaces “communicants”.

L’insuffisance du nombre d’adresses IP que fournit l’actuel protocole IPv4 est manifeste. Diverses mesures ont jusqu’ici permis de gérer la pénurie, au prix d’une certaine fragmentation du réseau et sans doute, de l’impossibilité de penser certains usages (il est par exemple impossible d’accéder directement à chaque objet connecté par une adresse propre indépendante des applications, ce qui rend difficile son utilisation comme “serveur”).

L’inflation des tables de routage pourrait également finir par créer des phénomènes d’engorgement. Malgré les promesses des générations successives de routeurs, l’évolution technologique ne semble pas pouvoir répondre à elle seule à cette problématique de croissance.

Des insuffisances pour des usages “critiques”
L’internet pose des problèmes à des organisations ou des types d’échanges pour lesquels le réseau, ou bien telle ou telle de ses caractéristiques, ont un caractère critique – au sens où si une fonction donnée n’est pas remplie, l’échange devient impossible ou sérieusement problématique :

  • L’internet ne propose pas aisément une sécurisation de bout en bout des échanges. Techniquement, elle supposera que tous les intermédiaires assurent bien le même service d’une façon compatible les uns avec les autres. Or, l’internet étant un réseau de réseaux indépendants les uns des autres, une part majeure de la sécurité relève de fait des utilisateurs et des applications. Notons qu’aujourd’hui, dans la plupart des cas, les opérateurs de réseaux comme les utilisateurs mettent très insuffisamment en œuvre les technologies et les démarches de sécurité élémentaires et disponibles.
  • Reposant sur un principe d’obligation de moyens (”best effort”) et non de bonne fin, l’internet peut difficilement être utilisé pour des échanges ayant besoin d’un niveau garanti de “qualité de service”, en termes de fiabilité, de débit, de latence, etc. On pense, par exemple, à des usages pour lesquels le temps réel est essentiel, parmi lesquels la vidéo haute définition, mais aussi des applications destinées à synchroniser de manière précise différents dispositifs (applications industrielles, de sécurité, scientifiques, etc.). Là encore, des solutions existent, mais il est difficile de garantir qu’elles sont mises en œuvre, et de la même façon, de bout en bout et au travers de tous les réseaux.

Une difficulté à accomoder de nouvelles demandes
En l’état, malgré certaines adaptations, l’internet gère mal la mobilité. Il se prête également mal à la multidiffusion d’un signal (”multicast”).

Des difficultés d’ordre économique et social
Enfin, l’internet suscite ou rend manifestes des difficultés dont le caractère n’apparaît pas technique au premier abord, mais dont on pressent bien – pour de bonnes ou de mauvaises raisons – que certaines solutions pourraient passer par des évolutions du réseau lui-même :

  • L’internet est difficile à contrôler, mais il n’est pas non plus si incontrôlable qu’on le dit. Le pouvoir iranien n’est pas si mal parvenu à restreindre les communications entre ses citoyens, et il a sérieusement raréfié leurs interactions avec le reste du monde. On ne peut tout contrôler tout le temps, mais force est de constater que dans de nombreux pays, on parvient assez bien à censurer l’internet, ou au moins retrouver la trace de ceux qui passent au travers des mailles du filet.
  • Le modèle économique de l’internet, comme réseau, apparaît comme fragile. A titre d’exemple, la rentabilité des fournisseurs d’accès s’obtient aujourd’hui, soit en faisant financer les gros utilisateurs par les petits (comme nous le verrons plus loin), soit en s’étendant vers d’autres services, ce qui peut poser des problèmes de concurrence ou fragiliser des secteurs (comme ceux des contenus) dont la rentabilité s’avère déjà problématique.
  • La gestion de l’identité sur l’internet n’est guère satisfaisante. Alors que le réseau est devenu, pour beaucoup de gens, un espace d’action et de transaction quotidien, l’identité numérique demeure généralement liée aux conditions physiques et contractuelles d’accès au réseau ou à un service. Pour la plupart des individus, changer de fournisseur d’accès, de service de messagerie ou de réseau social signifie perdre son adresse, ses contacts, bref, une bonne part de son identité.
    L’identité numérique n’est en fait ni réellement protégée (il y a beaucoup de moyens de savoir qui se cache derrière un pseudo, une adresse IP), ni réellement certifiée (on peut penser savoir à qui l’on a affaire, mais sans en être sûr).
  • Notre vie quotidienne, notre vie économique, certains aspects essentiels du fonctionnement de nos sociétés, deviennent très dépendants vis-à-vis de l’internet. Mais celui-ci n’assume pas vraiment la responsabilité qui devrait accompagner cette dépendance : sauvegarde et préservation des informations dans le temps ou au contraire, effacement sûr des informations, résilience en cas de problème, etc.

Il y a donc beaucoup de bonnes raisons de s’intéresser à l’internet du futur, voire de tout remettre à plat, sur le plan intellectuel du moins. Mais un certain nombre de non-dits obscurcissent aussi singulièrement le débat.

Cartographie des questions relatives à l'internet du futur par Véronique Olivier-Martin
Image : Une cartographie des questions relatives à l’internet du futur réalisée par [17] Véronique Olivier-Martin à partir de l’atelier de travail du 26 juin 2009.

2. Des non-dits qui obscurcissent le débat

Tous les problèmes cités plus haut sont réels et importants. Mais l’internet vit avec eux depuis des années. Certains de ces problèmes ont trouvé des solutions plus ou moins bricolées. Dans d’autres cas, les solutions techniques disponibles, certes peut-être imparfaites, tardent à se mettre en œuvre – c’est vrai en particulier de la sécurité, tant au cœur des réseaux que dans les entreprises et sur les postes de travail.

Alors, pourquoi le thème de l’internet du futur, voire – pour certains – de sa nécessaire refondation, prend-il aujourd’hui tellement d’importance ? Et de quel internet s’agit-il ?

Un enjeu économique mal documenté
La question de la “neutralité de l’internet” a surgi dans l’actualité via la rubrique économique : il s’agissait, pour certains fournisseurs d’accès américains, de compléter les revenus qu’ils tiraient de leurs clients finaux (vente d’abonnements, de bande passante et d’interconnexion) en facturant les sites web les plus utilisés ou les plus exigeants, en échange d’une garantie d’acheminement prioritaire sur leurs liaisons.

Cela revenait au fond à rappeler que l’équilibre économique de la plupart des acteurs du réseau repose sur un écheveau complexe et opaque de subventions croisées :

  • Au cœur du réseau, les petits réseaux et les pays pauvres subventionnent les autres en payant des frais d’interconnexion bien plus élevés ;
  • Au niveau local, l’enchevêtrement entre réseaux et points d’interconnexion publics et privés, réservés et partagés, rend difficile tout calcul précis ;
  • Au niveau de l’accès, les clients raccordés à un débit moyen ou bas, ou ceux qui consomment peu, subventionnent les gros utilisateurs des centres-villes ;
  • Des transferts également complexes ont lieu entre les différents métiers des opérateurs : accès, contenus, transactions…

On comprend alors que derrière certaines hypothèses d’évolution de l’internet, s’expriment des volontés – éventuellement contradictoires – de modifier les équilibres économiques et les jeux d’acteurs.

Par exemple, il est difficile de garantir une qualité de service de bout en bout si chaque communication emprunte un chemin différent, passant “chez” un grand nombre d’acteurs indépendants les uns des autres, de toutes tailles, obéissant à des règles différentes – c’est la situation d’aujourd’hui. Mais pour faire autrement, il faudrait une intégration beaucoup plus forte des réseaux jusqu’à l’accès, et beaucoup moins d’opérateurs, chacun étant lié aux autres par des règles (économiques et techniques) d’interconnexion très strictes. On voit bien qu’une telle intégration changerait le paysage concurrentiel de l’internet.
De même, une plus forte intégration entre accès et contenus, ou encore, une architecture de réseau qui ne ferait plus la différence entre accès fixes et mobiles, entraineraient de toutes autres organisations de marché.
Il est légitime que les intérêts s’expriment. Mais ils apparaissent rarement en tant que tels dans le débat sur l’internet du futur. Les intérêts se masquent le plus souvent derrière des arguments fonctionnels et techniques.
Une meilleure connaissance de la réalité de l’économie de l’internet, ainsi que des rôles, usages, intérêts et enjeux de l’ensemble de ses acteurs, semble indispensable à un débat éclairé et ouvert sur l’internet du futur. La France devrait engager des travaux de recherche dans ce domaine et inviter l’Union européenne à en faire de même.

Un désir de contrôle qui ne se soumet pas au débat
Les réflexions américaines sur l’internet du futur sont devenues de plus en plus visibles à partir des attentats du 11 septembre 2001. C’est dire que la préoccupation sécuritaire y joue un grand rôle. Celle-ci concerne certes les Etats face au terrorisme et plus généralement, aux nouvelles formes de guerre. Mais la lutte contre la délinquance et la criminalité s’est également invitée au débat. Et de leur côté, les entreprises demandent également plus de sécurité face aux attaques gratuites ou intéressées dont elles sont très souvent victimes. Et plus récemment, ce sont des secteurs économiques aux prises avec de nouvelles formes de concurrence plus ou moins loyale, ou même avec leurs clients (dans le cas des industries culturelles par exemple), qui demandent au réseau d’en savoir plus sur ses utilisateurs, de filtrer, bloquer, tracer…

Certaines de ces demandes se retrouvent de fait au cœur de débats publics, comme c’est le cas autour de la “loi Hadopi”. Mais bien d’autres s’expriment d’une manière plus discrète. On peut comprendre pourquoi. Mais dans le même temps, s’agissant de l’architecture d’un réseau aussi essentiel que l’internet, le degré d’importance à accorder à l’insertion de nouvelles fonctions de sécurité au sein du réseau doit s’ouvrir aux discussions. Parce qu’on ne sécurise jamais sans contrepartie, que ce soit en termes d’ouverture du réseau, de performance, de jeux d’acteurs, etc.

* *

Les vertus de l’internet actuel doivent servir de base pour construire l’internet du futur. Les individus comme les organisations utilisent le potentiel collaboratif de l’internet d’une façon active et efficace. La prise en compte de ces aspects est un atout pour les pays émergents qui voient l’internet comme une opportunité en termes de développement et (le plus souvent) de liberté d’expression. Elle est, pour tous, un facteur d’innovation et de croissance. Toute évolution proposée doit être jugée en fonction de sa capacité de faire vivre cette dynamique ou, au contraire, de la fragiliser.

_________________

Un enjeu de gouvernance mondiale
Le groupe de travail n’a pas produit de contribution spécifique sur la gouvernance de l’internet, qui demeure cependant un sujet d’avenir majeur. Cette gouvernance demeure aujourd’hui largement dépendante du gouvernement américain d’une part, et de l’autre, des grandes entreprises (notamment américaines) qui ont à la fois l’intelligence et les ressources de financer la présence massive de leurs ingénieurs dans les groupes de standardisation.

Les futures évolutions de l’internet doivent relever d’une gouvernance bien plus multilatérale et multi-acteurs. Le mouvement engagé sous l’égide des Nations Unies depuis le Sommet mondial de la société de l’information (2003-2005), qui a vu émerger une forme d’expression de la “société civile”, constitue un premier pas, évidemment insuffisant. L’Europe doit devenir un intervenant actif des débats à venir. Les entreprises européennes doivent prendre conscience de la nécessité d’être présentes aux moments et aux endroits où s’élaborent les standards. Enfin, ces travaux doivent déborder du cadre des forums officiels et des listes de discussions pour techniciens, pour permettre à d’autres groupes d’évaluer les conséquences économiques, sociales et environnementales des évolutions envisagées.

3. Efficience et universalité : au fond, que demande-t-on à l’internet ?

Les réflexions sur l’internet du futur semblent faire l’hypothèse que ce réseau doit devenir plus efficient pour, d’une part, grandir et d’autre part, mieux répondre aux besoins « critiques » – sécurité, qualité de service, etc.

Cette idée qui semble incontestable mérite cependant qu’on la regarde en profondeur et en particulier que l’on se pose la question de savoir ce que l’on perd lorsque l’on gagne en efficience.

Car on demande aussi à l’internet d’être un réseau “universel”, et même doublement :

  • Il doit être accessible au plus grand nombre (voire à tous), donc disponible partout, facile à déployer et raccorder, peu coûteux. L’internet a fait de la connectivité une aspiration nouvelle, que l’on voit s’exprimer de la part des exclus des réseaux et plus encore, des exclus de la démocratie ou du développement dans le monde. L’internet du futur doit à l’évidence continuer de porter cette espérance.
  • Il doit également accueillir les usages, les services, les applications et même les détournements les plus hétéroclites et les plus imprévus, et leur permettre si nécessaire de se déployer à très grande échelle. En fonctionnant comme une infrastructure neutre et simple, appuyée sur des standards ouverts, en ne faisant aucune distinction a priori entre les points qu’il connecte, l’internet est devenu en quelques années l’une des plus extraordinaires plates-formes d’innovation de l’histoire. Des millions d’applications, de sites, d’organisations humaines, de processus… s’appuient sur lui. Pratiquement aucun n’était même imaginable aux débuts du réseau. Très peu ont été inventés par les grands acteurs des réseaux.

Pour atteindre ce niveau d’universalité, le critère prioritaire n’est plus l’efficience, mais l’adaptabilité, la capacité d’accueillir l’imprévu – le juriste Jonathan Zittrain parle d’un internet “génératif” .

Comment équilibrer adaptabilité et efficicience ?
Gagner en efficience implique que l’on cherche à optimiser la gestion des ressources rares du réseau (les adresses IP, la puissance de calcul des routeurs, la bande passante parfois… et les finances des opérateurs) et à en maximiser la sécurité, ce qui exige de prévoir au mieux ce qu’il se passe sur le réseau (les chemins empruntés par exemple).

rareteabondance.jpgSe mettre en position de répondre à l’imprévu exige à peu près l’opposé : proposer en permanence une abondance de choix, voire de capacités, entre lesquels chaque innovateur, chaque organisation, voire chaque individu, choisira le moment venu, mais pas avant…

Ainsi d’un côté, on cherche à optimiser (gérer la rareté par la prévisibilité) et de l’autre à s’adapter (gérer l’imprévisible par l’abondance). Ces deux approches semblent incompatibles mais en réalité, tout est affaire d’équilibre.

efficienceresilience.jpgLes sciences de la complexité, démontrent en effet que tout réseau, qu’il soit technologique, biologique ou humain atteint un optimum de durabilité lorsqu’il trouve le bon équilibre entre l’efficience et la résilience (qui reprend certaines notions de l’adaptabilité) . Cet optimum se situe généralement un peu plus près de la résilience que de l’efficience. C’est également à ce point d’équilibre entre optimisation et adaptabilité, entre ordre et désordre, qu’émergent de nouvelles possibilités ; bref, que le potentiel d’innovation est maximal.

Les arguments techniques, généralement centrés sur l’efficience, ne peuvent donc pas suffire à déterminer la direction des travaux sur “l’internet du futur”. Il faut certes répondre d’une manière ou d’une autre aux besoins “critiques” de certaines applications qui échouent si certaines fonctions ne sont pas remplies à un certain niveau de qualité (garantie de bonne fin). Mais l’internet doit aussi demeurer un réseau à vocation universelle – accessible à tous et à tous les usages, sans préjuger de leur pertinence – et ceci s’accommode mal de dispositifs verrouillés.

Il y a critique et critique
Quelles sont les applications qui nécessitent vraiment un réseau “critique”, prioritairement bâti sur des critères d’efficience et de sécurité ?

On a par exemple souvent présenté la nécessité d’un débit parfaitement continu (la qualité de service) comme un élément critique pour permettre de passer de la voix sur un réseau. Mais l’utilisation massive du téléphone mobile, de la téléphonie IP, de la vidéo sur l’internet ou même de jeux en ligne de “basse résolution”, montre que les utilisateurs arbitrent plus souvent qu’on ne le croit en faveur du choix, du prix, de la mobilité, de leur propre capacité de participation, au détriment d’une qualité maximale.
Par contre des réseaux militaires, de recherche ou d’échanges interbancaires peuvent être perçus comme critiques : la sécurité, le délai d’arrivée des informations, la rapidité d’interaction, y ont un caractère vital. C’est aussi le cas d’éventuels réseaux qui permettraient le contrôle à distance de stimulateurs cardiaques ou d’autres appareils médicaux : dans ce cas la sécurité et la continuité du service doivent être assurés au maximum, quitte à réduire l’innovation sur de tels réseaux.

Faire coexister deux logiques
Sans négliger l’importance des critères d’efficience propres aux réseaux et aux usages “critiques”, on ne saurait donc réorganiser tout l’internet autour de ces critères. Il est “essentiel ” que le réseau “universel” qu’est l’internet conserve une architecture qui favorise l’accessibilité et l’innovation (symétrie des échanges, interconnexion directe des différents points du réseau…). De ce point de vue, il est nécessaire à court terme de faciliter le déploiement du protocole IPv6 (qui est immédiatement disponible et conserve cet équilibre entre “best effort” et optimisation) tout en favorisant la recherche de nouvelles solutions respectant le même type d’équilibre.

D’un autre côté, il apparaît économiquement raisonnable que les réseaux critiques, mêmes non interconnectés avec l’internet “universel” partagent lorsque cela est possible, les mêmes infrastructures physiques.
Différentes technologies permettent aujourd’hui de faire fonctionner sur de mêmes réseaux physiques des réseaux “virtuels” distincts et même étanches entre eux. Ceci présenterait en outre l’avantage, pour l’avenir, de faciliter l’expérimentation (de préférence participative, avec l’ensemble des acteurs concernés) de solutions innovantes pour l’internet qui sauraient mieux équilibrer performance, fiabilité, adaptabilité, économie et innovation.

Une difficulté économique
Cette vision d’un réseau “universel” qui arbitre délibérément en faveur du potentiel d’innovation au détriment de certaines attentes en termes d’efficience, et même de sécurité, rend difficile la mise en place de points de passage obligés à des fins, par exemple, de péage ou de contrôle. Remarquons cependant que dans d’autres domaines, ces fonctions ne sont pas non plus gérées par le réseau (cas des transports, dont la modernisation s’est accompagnée de la disparition des octrois), ou bien qu’elles ne le sont pour l’essentiel qu’aux extrémités des réseaux (cas de l’énergie). L’internet ne ferait donc pas exception.

* *

Si l’on ne peut pas avoir à la fois une efficience maximale et une adaptabilité maximale, il faut alors trouver le moyen de permettre aux deux formes de réseaux de se développer tout en s’interconnectant et en partageant le plus grand nombre possible de ressources.

4. Les objets, les sujets : deux nouveaux objectifs pour l’internet du futur

Un véritable “internet des objets”
Aujourd’hui, ce que l’on décrit souvent comme “l’internet des objets” se déploie le plus souvent hors de l’internet (dans des réseaux internes à des entreprises ou à des secteurs d’activités) et selon des principes très différents de ceux de l’internet : chaque puce qui équipe un objet ou un lieu ne communique en général qu’avec son “maître”, dans des dispositifs en étoile autour d’un système centralisé, et pour des finalités précises.

Les objets et les espaces se mettent bien en réseau, mais d’une manière sélective et le plus souvent hiérarchique, à l’intérieur de silos. On ne peut en général pas accéder aux capteurs et actionneurs pour leur faire faire autre chose que ce qu’ont prévu leurs installateurs ; on n’accède pas plus aux données qu’ils produisent : les images des caméras vont au PC de surveillance, les mesures de trafic à celui de la circulation, et personne d’autre n’en fera jamais rien. A brève échéance, on saura probablement identifier les “objets communicants” d’une manière à peu près universelle, mais il reste que la connexion “en étoile” à un serveur ne fait pas un “internet des objets”.

Ce qui a deux conséquences liées : d’une part, la plupart des puces installées dans des objets ou des espaces doivent se rentabiliser sur un seul usage, pour un seul acteur – celui qui les a installées. Comme, jadis, les ordinateurs spécialisés, mono-tâches et mono-utilisateurs. Et d’autre part, l’imagination innovante trouve peu à s’appliquer, puisque l’accès à l’infrastructure de facto que constituent toutes ces puces demeure sous contrôle, et que la combinatoire de ces puces, objets, espaces, utilisateurs, demeure bridée.

Un marché aussi contraint se condamne à rester petit. Et par construction, il vise à renforcer les acteurs et modèles existants, pas à les changer.

Deux idées centrales
D’autres pistes sont en cours d’exploration pour imaginer un système dans lequel les modèles de conception des objets, leurs fonctions, leurs caractéristiques techniques, leur composition, leur cycle de vie et bien sûr, les services qu’ils offrent via leurs capacités d’acquisition, de traitement et de communication, s’ouvrent beaucoup plus largement à l’innovation.

Tout, dans ces travaux, ne relève pas du réseau soi-même. Mais ils convergent autour de deux idées centrales :

  • Faire des objets (et des espaces) communicants des “constituants” de l’internet à part entière, qui peuvent être visibles du reste du réseau (ils disposent d’adresses publiques), qui peuvent émettre autant que recevoir et ce, via l’internet de tout le monde, qui peuvent être exploités (ou au moins voir leurs données exploitées) par d’autres que ceux qui les ont créés, installés ou équipés. Naturellement, des conditions de sécurité ou économiques peuvent s’appliquer, mais elles doivent venir après. Cela suppose a minima que l’espace d’adressage des objets soit cohérent avec celui du reste de l’internet et que les protocoles de l’internet “universel” facilitent également l’interconnexion avec des objets dont les capacités électroniques sont de faible puissance et qui doivent consommer très peu d’énergie.
  • Faciliter l’établissement spontané de réseaux de proximité entre objets fixes et nomades : détection et reconnaissance automatique, négociation de la connexion, utilisation des supports de réseau disponibles, ainsi que des liens accessibles avec le reste de l’internet.

La recherche européenne doit se focaliser sur ces éléments de cahier des charges, pour prendre position dans la création d’un internet des objets intégré dans l’internet des humains, plutôt que séparé de lui et contrôlé par les grandes filières industrielles existantes.

Un “internet des sujets”
Le thème de l’identité (numérique) prend une place de plus en plus centrale dans les discussions autour de l’internet, ainsi que dans les pratiques.

Aujourd’hui, cette identité est maltraitée sur le réseau :

  • Elle dépend entièrement des conditions d’accès au réseau ou à un service donné. Si l’on change de fournisseur d’accès internet, on perd le plus souvent son adresse e-mail et par suite, bien souvent, son accès à certains services, voire des listes de contacts. Si l’on change de réseau social, on perd son profil et ses réseaux d’”amis”.
  • Elle est fragmentée, elle existe de manière différente dans chaque espace au sein duquel on s’identifie : un coupe identifiant/mot de passe par service, réseau social, outil… Il devient dès lors très difficile de maîtriser les manifestations et les utilisations de son identité.
  • L’utilisateur de l’internet n’est ni vraiment anonyme (il est relativement aisé de l’identifier, du moins si l’on peut relier l’adresse IP à un compte chez un fournisseur d’accès), ni bien identifié (le réseau lui-même ne certifie ni n’authentifie sans dispositifs complémentaires mis en place à cet effet).

Or le développement des pratiques individuelles et sociales de l’internet fait émerger un grand nombre d’attentes nouvelles, et en partie contradictoires :

  • Le besoin social et professionnel de disposer d’une “existence numérique” – auquel font référence des initiatives tendant à donner à des SDF une adresse mail, un numéro de téléphone ou encore un espace de stockage numérique personnel.
  • La volonté de maîtriser les manifestations de son identité, qu’il s’agisse de préserver sa vie privée face aux commerçants, aux employeurs ou aux autorités – ou au contraire de se projeter pour entrer en relation avec d’autres, collaborer, s’exprimer, obtenir un service…
  • La double volonté, d’une part, de disposer de plusieurs “identités” distinctes permettant de cloisonner divers aspects de son existence et d’autre part, de simplifier la gestion de ses identifiants, de ses cercles de relations, de ses profils, etc.
  • La besoin de rattacher à son ou ses identité(s) une multitude d’objets, d’informations, de documents, de liens et autres “agents” disséminés sur le réseau – sans pour autant tout laisser voir à tout le monde.

Une “adresse numérique” personnelle ?
La complexité de ces attentes incite paradoxalement à ne pas trop confier de choses au réseau soi-même, au risque de tout figer, ou de détruire la confiance pour cause d’excès de surveillance.

Mais il semble malgré tout nécessaire de réfléchir à la possibilité d’attribuer facilement (et pour pas cher, voire gratuitement) un ou plusieurs identifiants techniques pérennes, propres à l’individu et sans doute incessibles, indépendants des modalités physiques ou contractuelles d’accès au réseau. La forme de cet/ces identifiant(s) est à discuter : adresse IP ou morceau d’adresse, nom de domaine, “URI” (uniform resource identifier)…

Un tel type d’identifiant résoudrait plusieurs des problèmes cités plus haut. En revanche, il pourrait en créer de nouveaux s’il rendait excessivement aisé l’établissement d’un lien entre une visite, une transaction, un échange, une donnée, et l’identité civile associée. Il faudrait donc offrir la possibilité de le masquer via des dispositifs d’anonymisation de tout ou partie de l’adresse par exemple, ou par des moyens alternatifs à rechercher.

Ce qui précède constitue donc, non pas une revendication, mais la recommandation d’en faire un vrai sujet de recherche et d’expérimentation pour l’internet de demain. L’identité numérique sera l’un des sujets de débat centraux de l’internet du futur. Ce sujet devra être abordé d’une manière créative et courageuse, pour répondre aux aspirations qui émergent sans céder à la tentation de la surveillance ou de la transparence totale.

Un internet de confiance ?
La “confiance” est souvent évoquée comme l’un des buts souhaitables à atteindre sur l’internet du futur. Mais qu’entend-on par confiance ? Au moins trois choses :

  • La confiance vis-à-vis du réseau soi-même, de sa fiabilité (la possibilité de s’appuyer dessus pour des actes importants) – dont l’une des conditions est qu’il ne nous soumette pas à une surveillance plus étroite que celle que l’on accepte dans la vie quotidienne hors ligne.
  • La confiance vis-à-vis des services, de leur crédibilité, du respect de leurs engagements contractuels, du respect de la vie privée de leurs utilisateurs.
  • La confiance vis-à-vis des autres, de ce que l’on pense savoir d’eux (qui ne suppose pas nécessairement de connaître leur identité civile) et de la valeur de leur parole.

Face à ces questions importantes, les principales réponses théoriques et politiques sont aujourd’hui techniques – elles consistent à augmenter le niveau de sécurité des systèmes ; alors qu’au quotidien, les principales réponses pratiques sont plutôt contractuelles (ce que chacun risque ou non), assurancielles (à qui coûte le risque, et combien), sociales (ce que les autres disent de…) ou mémorielles (ce que j’ai vécu précédemment avec…). La plupart des dispositifs avancés de sécurisation des échanges demeurent peu utilisés.

Faut-il aller plus loin dans le réseau lui-même ? Sans doute, mais là encore, d’une manière prudente. Traiter de manière purement technique des questions de confiance peut détruire le substrat de confiance sur lequel toute société repose : pourquoi me demander si j’ai confiance en quelqu’un s’il m’est facile de prendre toutes les sécurités possibles ? Et par suite, la confiance vis-à-vis du réseau peut en souffrir : puis-je prendre le moindre risque si tout m’est infiniment imputable et si, pour que ce soit le cas, tout ce que je fais se sait quelque part ?

A minima, avant que de sécuriser plus avant l’internet et les échanges qui s’y déroulent, il conviendrait de s’assurer que les dispositifs de sécurité existants sont utilisés – ou bien, de comprendre pourquoi ce n’est pas le cas. Il peut en effet, comme nous l’indiquons dans la partie 3, y avoir de bonnes raisons de ne pas sécuriser à l’excès certains dispositifs, certains modes d’accès et d’identification, certaines transactions ou échanges : faciliter l’accès, réaliser des économies, favoriser l’émergence d’usages imprévus et de détournements, inviter les utilisateurs à se faire confiance, etc.

Ce que l’on pourrait demander au réseau soi-même pourrait alors porter sur :

  • La confidentialité des échanges : certains imaginent que les données circulant sur le réseau puissent être étiquetée d’un niveau de confidentialité (public, privé, restreint) ;
  • La sécurité des équipements du réseau ;
  • Et la facilité de construire des réseaux “critiques” plus fiables et sécurisés, séparés au moins pour partie de l’internet “universel”.

Conclusion : les trois priorités

Une approche technologique de l’internet du futur cherchera assez naturellement à répondre au plus grand nombre possible de demandes en termes de performance, de fiabilité et de sécurité.

En nous plaçant d’un autre point de vue, celui d’acteurs qui s’appuient sur l’internet pour innover et développer leurs activités, nous avons montré que cette approche pouvait avoir un coût caché : celui de rendre l’internet moins accessible, et surtout, moins ouvert à l’innovation.

* *

En évoluant, l’internet doit rester ce réseau doublement universel – ouvert à tous, ouvert à tout – et cette plate-forme d’innovation. Cela supposera souvent d’arbitrer, sur l’internet, en faveur de l’adaptabilité du réseau plutôt que de l’optimisation – quitte à faire le contraire sur certains réseaux dédiés, plus ou moins interconnectés avec l’internet “universel” et pour lesquels la capacité d’innovation n’est pas aussi essentielle.

Les conséquences sociales et économiques d’une diminution de la capacité de l’internet à fonctionner comme un moteur d’innovation ouverte, y compris pour de compréhensibles raisons de sécurité et de qualité, seraient profondément négatives.
Cet internet ne sera plus celui des seuls ordinateurs, du moins des ordinateurs tels que nous les connaissons. Etendre l’internet aux objets constitue un chantier prioritaire, mais il faut l’aborder dans l’esprit… de l’internet : c’est-à-dire faire des objets, non pas de simples terminaisons de chaines de valeur industrielles, mais des constituants à part entière d’un internet des humains et des non-humains, ouverts à leur tour aux transformations, aux détournements, aux agencements imprévus.

Enfin, l’internet est devenu une infrastructure si essentielle pour des millions d’individus, qu’il devient prioritaire de les y faire exister. Exister comme des sujets autonomes, capables d’y déployer leurs capacités, qui y possèdent une adresse (voire un domicile) stable, tout en bénéficiant des libertés élémentaires de disparaître, de se dissimuler ou de se réinventer.

* *

Universalité, accessibilité et ouverture à l’innovation d’où qu’elle vienne ; mise en réseau des humains et des non-humains ; émergence d’un “internet des sujets” : voici les trois attentes prioritaires que nous exprimons dans ce “cahier des charges” de l’internet du futur. Elles ne s’opposent pas à d’autres attentes, mais elles doivent être défendues avec suffisamment de force, comme des critères sur lesquels il serait grave, y compris du point de vue économique, de transiger.

En défendant une telle vision, la France proposerait une voie créative et ambitieuse, dans laquelle l’Europe pourrait prendre toute sa place.

________________

Quelques recommandations concrètes

Ayant travaillé dans l’optique d’un “cahier des charges”, le groupe ne s’est pas fixé pour objectif de produire des recommandations précises en réponse à chacune des questions de la consultation. Quelques pistes ont cependant émergé des échanges, dont nous reprenons les principales.

Soutenir les recherches qui visent :

  • A mieux comprendre l’économie et les jeux d’acteurs de l’internet, ainsi que son fonctionnement concret
  • A augmenter les capacités et la qualité du réseau actuel
  • A étendre au-delà de ses limites actuelles les principes architecturaux décentralisés qui fondent en principe l’internet, mais ne s’appliquent que rarement au niveau du “dernier kilomètre” : réseaux “sans opérateurs” et de pair à pair, réseaux mesh et ad hoc, réseaux autonomes… (ce dernier point relevant dans une large mesure de la recherche “en rupture”)
  • Dans le soutien à la recherche, s’attacher à associer les grands industriels, les acteurs publics, les laboratoires de recherche et les petites entreprises innovantes, dont proviendront bien souvent les innovations les plus importantes. Des initiatives particulières doivent s’attacher à mettre ces dernières en mesure de développer leur R&D, puis leur développement, les deux à l’échelle internationale.
  • Trouver les méthodes et les dispositifs concrets permettant d’intégrer les citoyens et les utilisateurs en amont des recherches sur l’internet du futur (et ses applications).
  • Explorer, en termes techniques, économiques et de régulation, les conséquences de l’émergence probable de “droits” associés au caractère de plus en plus indispensable des réseaux : droit à l’accès, droit à l’identité, droit à l’oubli ou à la déconnexion, droit à la préservation des données dans le temps…
  • A l’évidence, porter ces projets et ces recommandations au niveau européen, seul échelon d’action pertinent dans ce débat mondial.

_________________

Liste des participants au groupe de travail
Les participants sont intervenus à titre individuel. Les idées exprimées dans ce document ne reflètent pas nécessairement celles de leurs employeurs ou organisations. La présence dans la liste des participants n’implique pas non plus une adhésion à chacune des idées et propositions de ce document.

Olivier Auber, Baptiste Cammareri, Jean-Marie Chauvet, Nathalie Colombier, Dominique Dardel, Jean-Marie Dazin, Olivier Desbiey, Fabrice Epelboin, Monique Epstein, Laurent Ferrali, Vincent Fillion, Francine Halfen, Isabelle Galy, Laurent Gille, Damien Guennif, André Gunthert, Thomas Lang, Jean-Marc Manach, Kouam Mensah, France Miremont, Gilles Misrahi, Pierre Mounier, Tristan Nitot, Nicolas Nova, Gilles Pansu, Franck Perrier, Margault Phélip, Damien Roussat, Sylvie Sassi, Christel Sorin, Mohsen Souissi, Christophe Tallec, Yannick Tamèze.

Article initialement publié sur Internet Actu

]]>
http://owni.fr/2009/07/22/internet-du-futur-vers-un-%e2%80%9ccahier-des-charges%e2%80%9d/feed/ 0