La vague schumpétérienne dans les télécommunications

Implications pour les politiques publiques

Yves Rabeau 5 août 2004

*Cette étude a été traduite en anglais.

La numérisation de l’information et l’arrivée d’Internet représentent des innovations majeures qui ont transformé l’industrie des télécommunications, les façons de faire dans l’économie et la vie des citoyens. De plus, l’ouverture de la concurrence dans les télécommunications est venue amplifier et complexifier les effets de l’innovation sur cette industrie. On a assisté à une véritable vague schumpétérienne d’innovation comme on en voit à quelques reprises seulement en un siècle.

La révolution Internet a donné naissance à tout un mouvement d’optimisme sans borne. Les acteurs financiers ont alimenté des prévisions économiques insoutenables, contribuant ainsi à gonfler une bulle spéculative dont l’un des effets s’est traduit par un surinvestissement dans les télécommunications. Ces excès ont soulevé plusieurs questions. Aurait-on pu au moins en partie éviter ce résultat grâce à une meilleure gestion des politiques macro-économiques ? La régulation du secteur financier, les règles de gouvernance des entreprises et les lois sur les faillites ont aussi été mises en cause. Le débat sur ces questions se poursuit. Dans cette étude, nous tentons surtout d’établir si une régulation de la téléphonie mieux adaptée aux nouvelles conditions à la fois technologiques et concurrentielles aurait pu limiter l’ampleur des excès de cette industrie.

La période d’expansion accélérée des télécommunications a été marquée par l’arrivée de nouvelles entreprises qui ont déployé des réseaux de transport utilisant d’emblée la technologie Internet. Cette poussée technologique, conjuguée avec l’excédent de capacité créée par le surinvestissement, a contribué à faire baisser de façon appréciable les prix de l’interurbain et des services Internet. La période a été marquée par de nombreuses transactions financières. Les anciennes compagnies se sont regroupées dans le but de mieux faire face à la concurrence, d’acheter de nouvelles entreprises pour accéder plus rapidement à la nouvelle technologie et d’offrir à leurs clients un guichet unique pour tous les services de communications. Les nouveaux venus ont aussi fait des acquisitions, notamment en se portant acquéreurs d’ex-titulaires de monopole, pour accroître le trafic sur leur réseau. Certaines sociétés ont adopté la stratégie de la convergence en tentant de marier contenu, transport et transactions en ligne.

Ces transactions ont conduit les entreprises à s’endetter et n’ont pas eu les effets espérés de synergie, alors que la baisse des prix a influencé les revenus. Ainsi, les difficultés du secteur des télécommunications ne sont pas uniquement reliées à l’optimisme excessif des intervenants mais aussi à de mauvais choix de modèles d’affaires. La fin du boom des télécommunications a amené plusieurs entreprises à déclarer faillite. D’autres ont lutté pour leur survie, notamment en démantelant par ventes d’actifs les conglomérats fondés sur la convergence ou le guichet unique. L’éclatement de la bulle s’est traduit par une évaporation de richesse financière énorme, des mises à pied importantes, l’abandon de plusieurs projets d’investissements.

Cette vague a eu par ailleurs des effets très positifs sur l’organisation de la société ainsi que sur la productivité des entreprises et la rémunération des employés, alors qu’Internet est rapidement devenu un moyen de communiquer et d’échanger des biens et services dans l’économie. Les utilisateurs des télécommunications ont profité d’une baisse appréciable des prix des communications et d’une multiplication des services offerts.

Aurait-on pu éviter ce gaspillage de ressources dans l’industrie de télécommunications ? À notre avis, précisément à cause de l’économique des réseaux, les organismes de régulation, grâce à l’émission de licences d’exploitation, auraient pu appliquer le principe bien connu dans ce milieu du partage de la capacité des réseaux, dans le but d’éviter tous ces dédoublements auxquels on a assisté. Mais, les milieux financiers se seraient opposés à une telle discipline en arguant que le libre marché est préférable pour faire l’allocation des ressources.

Pour mieux se préparer à l’avenir, des sociétés de téléphonie se recentrent actuellement sur leur mission traditionnelle et deviennent dans un monde compétitif des transporteurs très efficaces. D’autres viseront à occuper un créneau spécialisé sur le marché des services aux entreprises. Enfin, l’autre avenue serait celle du courtier offrant, en partenariat avec d’autres sociétés, un assemblage de solutions à ses clients.

Au Canada, l’ouverture de la concurrence et l’économique des réseaux n’ont pas produit des résultats optimaux, c’est-à-dire où, idéalement, l’intérêt des clients et celui des actionnaires des sociétés de téléphonie convergent. Il reste à voir si la concurrence sur un marché de l’interurbain de la taille de celui du Canada rend possible la présence d’un certain nombre de concurrents rentables à moyen terme. Sur la boucle locale, l’ouverture de la concurrence s’est révélée fort complexe et n’a pas produit les résultats escomptés. À notre avis, la vraie concurrence sur ce marché sera à caractère technologique. Le sans-fil et la câblodistribution peuvent, avec les progrès technologiques, livrer une véritable concurrence aux réseaux filaires des ex-titulaires de monopole.

Enfin, en faisant disparaître la notion d’interurbain, les nouveaux modèles d’affaires fondés sur la téléphonie IP vont poser un défi à la fois aux ex-titulaires de monopole et aux régulateurs si l’on veut réussir à établir des règles permettant d’encadrer ces avancées technologiques.

Introduction

Innovation et spéculation

On a vécu, au cours de la dernière décennie, une expérience socio-économique exceptionnelle. La numérisation de l’information, la révolution de la bande passante liée au transport de l’information sur fibre optique et l’arrivée d’Internet représentent des innovations majeures qui ont transformé l’industrie des télécommunications, les façons de faire dans l’économie et la vie des citoyens. De plus, l’ouverture de la concurrence1 dans les télécommunications en Amérique et en Europe est venue amplifier et complexifier les effets de l’innovation sur cette industrie. On a assisté à une véritable vague schumpétérienne d’innovation comme on en voit à quelques reprises seulement en un siècle.

La théorie de Schumpeter2 soutient que les grandes vagues d’innovation ont des effets à la fois créateurs et destructeurs de richesse. L’effet net à terme est positif, puisque l’innovation demeure le fondement des grands changements sociaux et des gains de productivité qui améliorent le niveau de vie des personnes dans une économie. Mais ces gains se font à travers des bouleversements importants, tant économiques que sociaux, qui peuvent durer des décennies. De nouvelles entreprises, ou celles qui existent déjà, profitent de la vague d’innovation et adoptent les nouvelles technologies, alors que d’autres disparaissent parce qu’elles sont devenues obsolètes et n’ont pas réussi à s’adapter aux nouvelles conditions de marché. Ces ajustements du marché font également disparaître certains métiers, et des travailleurs peuvent ainsi se retrouver sans emploi. Rappelons qu’après une innovation majeure comme l’électricité, il a fallu des décennies avant que les entreprises s’adaptent aux possibilités offertes par cette technologie, et que les citoyens en bénéficient à leur tour.

Par ailleurs, en période de forte croissance économique, il est difficile pour les banques centrales, selon l’économiste autrichien et prix Nobel F. Hayek, de déterminer le coût du capital (le taux d’intérêt « naturel ») qui va permettre une allocation efficace des ressources dans l’économie. Si le coût est trop faible, on risque de se retrouver dans une situation de demande excessive d’investissement. Des prévisions irréalistes de profits futurs associés aux nouvelles technologies issues de la vague d’innovation peuvent alimenter, si elles sont conjuguées avec des taux d’intérêt trop bas, même s’il n’y a pas d’inflation, un mouvement financier qui peut propulser les valeurs boursières à des niveaux insoutenables3. La haute valeur des actions des entreprises incite alors celles-ci à s’endetter et à accentuer ainsi l’effervescence des marchés financiers.

C’est dans une certaine mesure ce qui s’est passé en 1890 au moment où l’électricité a fait son apparition. Les entreprises qui avaient adopté cette nouvelle technologie ont vu la valeur de leurs actions s’apprécier de façon considérable. Puis, lorsqu’il est devenu évident que c’était à long terme que les profits se manifesteraient, une sévère correction boursière a suivi4. Ce scénario s’est en quelque sorte répété de 1995 à 2001 dans le secteur des télécommunications, en dépit de toutes les connaissances acquises depuis un siècle sur le fonctionnement des marchés, les mesures de contrôle et les règles destinées à assurer le bon fonctionnement des marchés financiers, et malgré la grande diffusion de l’information comparativement à ce qui se faisait au siècle précédent. Innovation et abondance des fonds prêtables peuvent conduire à de coûteux excès pour l’économie.

Innovation et ouverture de la concurrence dans les télécommunications

La révolution de la bande passante et d’Internet a donné naissance à tout un mouvement d’optimisme sans borne alimenté par des gourous, des consultants en gestion et des analystes financiers. On a cru que la demande de bande passante augmenterait de façon presque illimitée, reflétant ainsi les nouvelles façons de faire dans l’économie et une transformation rapide de la société. Les acteurs financiers ont alimenté ces prévisions insoutenables et ont ainsi contribué à gonfler une bulle spéculative dont l’un des effets s’est traduit par un surinvestissement dans les télécommunications, ce qui a été à l’origine d’une crise majeure dans ce secteur dans le monde occidental.

Les lendemains de la bulle spéculative et les politiques économiques

L’industrie des télécommunications traverse présentement un douloureux processus de restructuration et de consolidation. Aux États-Unis, pas moins de 50 sociétés de télécommunications se retrouvent sous la protection de la loi sur les faillites. Des sociétés fusionnées sont en voie de procéder, ou l’ont déjà fait, à un démantèlement d’actifs. Il faudra encore un bon moment avant d’éliminer les excès d’offre et de retrouver une industrie performante.

Aurait-on pu au moins en partie éviter ce résultat grâce à une meilleure gestion des politiques macroéconomiques de façon générale, à une régulation plus sévère du secteur financier et à des règles de gouvernance plus strictes pour les entreprises ayant des actionnaires et traitant avec les marchés financiers ? De plus, est-ce qu’une régulation de la téléphonie mieux adaptée aux nouvelles conditions à la fois technologiques et concurrentielles dans lesquelles l’industrie fonctionne aurait pu limiter l’ampleur des excès de cette industrie ?

Pour ce qui a trait à la politique monétaire, il y a présentement un débat autour de la question de la prise en compte de l’évolution de la valeur des actifs (comme les actions en Bourse) dans les décisions des banques centrales. Aux États-Unis, la Federal Reserve défend sa politique des taux d’intérêt5, qui a fait l’objet de critiques selon lesquelles la spéculation boursière et l’impact de la sévère correction auraient pu être en partie évités par une hausse préventive du coût du capital6. Cette question a aussi fait l’objet de réflexions au Canada au moment où les valeurs boursières étaient en hausse rapide7. La théorie de Hayek suggère que le trop faible coût du capital a conduit à un surinvestissement. Mais, tout au long de la période d’expansion, grâce à des gains de productivité, il n’y a pas eu de poussée inflationniste, de sorte que la Federal Reserve, en particulier, s’estimait justifiée de maintenir les taux à un niveau constant. Le débat se poursuit, et il n’y pas de consensus sur cette question.

Également importante est la question de la régulation des marchés financiers et de la gouvernance des entreprises. Des analystes financiers, des courtiers, des banquiers et certains hauts dirigeants d’entreprise qui n’ont pas respecté les règles d’éthique, ou qui se sont livrés à des actions carrément frauduleuses, ont contribué à alimenter la bulle spéculative. Nous examinerons certains aspects de ces questions en lien avec le secteur des télécommunications. Mais il y a ici également tout un débat de fond qui vise à déterminer si des règles plus strictes ou une application plus rigoureuse des règles existantes auraient aussi pu éviter, ou à tout le moins limiter, l’ampleur de la spéculation boursière. C’est une question qui est présentement débattue8 et qui a donné lieu à un renforcement des règles régissant les marchés financiers. Si nous ne discutons pas, dans cette étude, de la question de règles de gouvernance à proprement parler ni de régie des organisations, nous ferons cependant référence au manque d’éthique de certains acteurs du secteur des télécommunications et aux conséquences que cela a eues sur cette industrie.

Par ailleurs, les lois sur les faillites sont une autre dimension de la gestion du cadre juridique dans lequel évoluent les entreprises, et qui ont un effet important sur le comportement présent et futur de l’industrie des télécommunications en Amérique du Nord. Nous verrons que, dans une industrie où il existe un fort excédent de capacité, le recours aux dispositions de la loi qui permettent à une entreprise de se restructurer et de réduire ses dettes par entente avec ses créanciers peut représenter une menace pour des concurrents qui, eux, ont honoré leurs engagements envers leurs créanciers et actionnaires.

Enfin, nous nous demanderons aussi si certaines dispositions de la régulation dans l’industrie des télécommunications n’auraient pas permis de réduire l’ampleur de la bulle spéculative. La mise en place de balises par les organismes de régulation au moment de l’ouverture de la concurrence dans les services de télécommunications et du décloisonnement des secteurs du transport de l’information aurait-elle contribué à atténuer la croissance chaotique de l’industrie ? Notamment, le fait de partager les réseaux tout en préservant la concurrence aurait-il pu, au Canada ou aux États-Unis, contribuer à une meilleure allocation des ressources comme nous l’avons proposé précédemment9 ? On peut aussi se demander si l’approche adoptée par le CRTC à l’ouverture de la concurrence a été l’un des facteurs qui ont contribué à éviter à l’industrie canadienne des télécommunications une débâcle aussi substantielle que celle qui a été observée aux États-Unis.

Vagues schumpétériennes : la croissance chaotique des télécommunications

Le contexte : les nouveaux paradigmes et les prévisions

Avec la révolution numérique et l’arrivée d’Internet, des gourous comme G. Gilder, N. Negroponte et, au Canada, D. Tapscott10 ont annoncé le début de la révolution de la bande passante. Selon eux, les échanges électroniques d’information transformeraient la vie des citoyens et leurs façons de communiquer et de transiger avec les entreprises et les gouvernements, de même que la façon dont se fait l’échange des biens et services dans l’économie. Les quelques entreprises Internet qui avaient fait leur apparition sur le marché traceraient la voie de l’avenir pour tout ce qui touche les nouvelles façons de faire dans l’économie. Toutes ces entreprises qui gravitent autour de l’échange électronique d’information, depuis les équipementiers jusqu’aux aux sociétés d’informatique et de télécommunications, formaient maintenant la « nouvelle économie ». Certains gourous et les analystes financiers ont fait la promotion des « nouveaux paradigmes de gestion » de la « nouvelle économie » visant à éclairer les décisions des gestionnaires d’entreprises et des investisseurs dans ce nouveau contexte.

Le fondement de ces nouveaux paradigmes reposait sur une demande illimitée, dans l’avenir, de bande passante. Toutes les transformations de l’économie associées à Internet devaient générer une demande sans cesse croissante de transport de l’information à l’échelle mondiale. G. Gilder, en particulier, s’est fait l’apôtre de cette prophétie au moyen de sa « Newsletter » destinée aux présidents de société et aux investisseurs, ainsi que dans son livre11 Telecosm, présenté comme la bible du nouvel âge des communications. Si l’on considère que certains ont cru cette prévision fondée, alors on peut comprendre un peu mieux ces prétendus nouveaux paradigmes :

  • La croissance des ventes, plutôt que les profits à court terme, est le meilleur indicateur de la valeur d’une société ; la rentabilité vient plus tard et de surcroît.
  • L’augmentation de la capacité de transport des sociétés de télécommunications, particulièrement dans le cas des nouveaux venus qui utilisent la plus récente technologie, est un indicateur de profits futurs et de gains importants pour les actionnaires.
  • Parmi les indicateurs financiers utilisés pour évaluer la performance des entreprises, on privilégie les revenus nets avant impôt, intérêt sur la dette et amortissements, plutôt que les profits.

D’autres concepts de gestion ont aussi fait leur apparition, notamment celui de « temps Internet ». On prévoyait que l’utilisation des échanges électroniques allait modifier en profondeur et très rapidement les façons de faire, de sorte que les entreprises seraient en mesure de réaliser en trois mois ce qui, avant l’utilisation d’Internet, prenait un an. Selon les gestionnaires des télécommunications, la conception de produits et leur acceptation par les clients allaient donc prendre une fraction du temps traditionnellement prévu pour réaliser ces opérations de mise en marché.

De plus, les entreprises Internet, avec Amazon et Yahoo ! en tête, allaient remplacer les firmes de la « vieille économie » et permettre de faire des transactions de façon moins coûteuse et beaucoup plus rapide. Il en résulterait en accéléré une croissance de la productivité et des niveaux de vie. On anticipait ainsi une croissance énorme des transactions électroniques aussi bien entre les consommateurs et les entreprises (B2C) qu’entre les entreprises elles-mêmes (B2B). Les firmes de sondage et de consultants se sont mises à réviser chaque mois leurs estimations de l’importance du commerce électronique : on a alors prédit que celui-ci se chiffrerait en billions de dollars américains en 200412.

À ces prophéties, il faut ajouter la falsification des données sur le trafic Internet et sur les résultats financiers des entreprises. De novembre 1993 (au moment du lancement du navigateur Mosaic) jusqu’à la cession du réseau au secteur privé, la National Science Foundation (NSF) a constaté que, au lieu de doubler tous les ans, le trafic double tous les trois mois. Puis, la NSF a cédé au secteur privé la gestion d’Internet en avril 1995, et des analystes ont fait des extrapolations à partir de ces données. Mais il était clair que l’on ne pouvait pas maintenir ce rythme. L’industrie avait parié que le trafic Internet doublerait tous les trois mois ; dans les faits, depuis 1997, il a doublé tous les ans. Ce taux de croissance mythique a alimenté les prévisions de toutes les formes de trafic en télécommunications13.

Dans ce contexte, WorldCom-MCI, qui détenait UUnet, le plus gros fournisseur de service Internet en Amérique, a reconnu avoir falsifié14 ses données sur la progression de son trafic Internet aux fins de maintenir la valeur de son action en Bourse. Le gonflement des données du trafic Internet a contribué à entretenir la bulle spéculative dans le secteur des télécommunications. Enfin, des analystes financiers ont embelli les résultats de certaines entreprises pour stimuler les transactions en Bourse, alors que d’autres ont fait des recommandations d’achats d’actions de société dont ils savaient qu’elles faisaient face à des difficultés financières majeures15. À cet égard, plusieurs sociétés de courtage ont accepté de payer des amendes substantielles pour régler hors cours les poursuites engagées par les autorités américaines. Tout cela traduit le climat dans lequel évoluait le monde des télécommunications au moment du boom Internet.

Enfin, les vagues d’innovation — surtout si elles sont supportées par les marchés financiers — s’accompagnent souvent d’une vague entrepreneuriale. La formation des entreprises Internet, les nouveaux venus en télécommunications, la mise au point de nombreux nouveaux services démontraient la vitalité entrepreneuriale générée par cette vague d’innovation. Des cadres de sociétés de téléphonie traditionnelle ont fondé de nouvelles sociétés de télécommunications. Des ingénieurs ou des informaticiens ont aussi quitté des firmes bien établies pour fonder leur propre entreprise. L’attrait de la rémunération en actions au moment où les marchés battaient des records a alimenté cette vague entrepreneuriale. Des sociétés de capital de risque ont appuyé cette création d’entreprises technologiques en fournissant expertise et liquidités financières.

L’expansion des télécommunications

Les investissements

Dans ce contexte, les nouveaux venus dans le secteur et, par effet de concurrence, les ex-titulaires de monopole ont créé des réseaux de fibres optiques qui d’une année à l’autre se voulaient plus innovateurs, plus étendus que ceux de leurs compétiteurs et d’une capacité accrue. Dans une course à l’innovation incrémentielle, les équipementiers mettaient sur le marché des fibres dont la capacité augmentait sans cesse. La technologie du multiplexage optique de Nortel a permis d’acheminer sur une fibre plusieurs longueurs d’onde, ce qui a porté la capacité des réseaux à des niveaux très élevés. Les transporteurs voyaient leurs dépenses en capital croître à des rythmes fulgurants (34 p. 100, à taux annuel composé, de 1996 à 2000) dans divers domaines (réseaux optiques, routeurs, sans-fil, etc.)16. Autre indicateur de cette poussée des investissements, les dépenses en capital, qui représentent de façon tendancielle 15 p. 100 du PIB américain. À la fin des années 1990 et au début des années 2000, cette proportion, en atteignant 33 p. 100, a fait la démonstration de cette vague schumpétérienne d’innovation17.

En fait, vers la fin de la vague d’innovation, c’està-dire vers 1999, les entreprises de télécommunications, en dépit de tous les réseaux déployés, ont commencé à redouter les goulots d’étranglement et les pénuries d’équipement. On se trouvait alors véritablement au sommet de tout le mouvement spéculatif. Les grands équipementiers comme Nortel ou Cisco n’arrivaient pas à satisfaire la demande et devaient pratiquer une forme de rationnement face à leurs clients ; ces derniers se sont donc mis à gonfler artificiellement leur demande d’équipements pour être certains d’obtenir ce dont ils croyaient avoir besoin pour répondre aux besoins du marché.

D’autre part, les nouveaux venus dans le domaine des télécommunications, qui avaient peu de revenus et qui avaient investi dans leur réseau les sommes obtenues sur les marchés financiers, ont commencé à se retrouver en situation de manque de liquidités. Des équipementiers comme Nortel ont alors financé de façon agressive les achats d’équipements de ces clients. Enfin, dans cette course à l’innovation, des firmes comme Nortel et Cisco, au cœur de la révolution Internet, ont fait plusieurs acquisitions d’entreprises technologiques qui, selon leurs estimations, pourraient offrir des produits prometteurs dans le domaine. Ces acquisitions se sont faites au moment où toutes les valeurs des firmes reliées à Internet étaient largement surévaluées.

Les stratégies de croissance

Les sociétés de téléphonie qui étaient déjà en place (souvent des ex-titulaires de monopole) ont fait face à un environnement complexe. Dans un premier temps, l’ouverture de la concurrence sur le marché de l’interurbain les a amenées à affronter des nouveaux venus qui investissaient dans des équipements, ainsi que des revendeurs. Ainsi, aux États-Unis, AT&T devait faire face à des concurrents comme MCI, Sprint ou encore WorldCom ; au Canada, Bell et Telus affrontaient CallNet et Unitel (passée aux mains de AT&T Canada), ainsi que de nombreux revendeurs. Puis, grâce à l’emballement des marchés financiers, sont apparus ceux que l’on a appelés les « Barons de la bande passante ». On pense ici à Qwest, Global Crossing, Level 3 et GTS aux États-Unis, ou encore à 360Network au Canada. Sans héritage du passé, ces nouveaux venus sur le marché ont d’emblée adopté les nouvelles technologies pour se construire des réseaux. De plus, les ex-titulaires de monopole ont dû ouvrir leur réseau aux fournisseurs de services Internet (FSI). Parmi ces entreprises, celles qui faisaient affaire sur la boucle locale ont donc eu l’obligation (que n’avaient pas les nouveaux venus) de fournir le service local, et ont dû aussi ouvrir cette dernière partie du réseau à d’éventuels compétiteurs quand la concurrence a été permise sur ce marché.

Dans ce contexte d’innovation et face à cette concurrence, les sociétés traditionnelles ont déployé diverses stratégies. Elles ont investi dans leur propre réseau pour le moderniser et augmenter sa capacité. Mais elles ont aussi adopté une stratégie de sautemouton en faisant l’acquisition de fournisseurs de services. La stratégie de guichet unique (analysée plus loin) a aussi été retenue par des sociétés comme Bell au Canada ou AT&T aux États-Unis. Ces sociétés ont procédé à des acquisitions pour être présentes dans plusieurs catégories de services.

WorldCom, née de la fusion de diverses compagnies de télécommunications, a aussi adopté la stratégie du guichet unique par intégration verticale et horizontale. Les acquisitions de UUnet et de MCI ont fait de WorldCom le plus gros fournisseur de services Internet en Amérique du Nord et un acteur majeur du marché de l’interurbain ; une tentative d’acquisition de Sprint, qui visait à combler la lacune de la société dans la téléphonie sans fil, a cependant été refusée par les autorités américaines responsables de la concurrence. Nous discuterons plus loin de ces stratégies de croissance par acquisitions.

Cette vague de transformations s’est également accompagnée d’un autre changement majeur sur le marché des télécommunications. Les ex-titulaires de monopole, qui étaient jusque-là très actifs en recherche et développement — souvent à travers une filiale (comme Nortel, pour Bell) ou des laboratoires (comme Bell’s Labs, pour AT&T) —, ont pratiquement abandonné la R et D, alors que les équipementiers, tels que Nortel, Lucent et Cisco, ont connu une croissance fulgurante alimentée par les progrès technologiques et le milieu financier18. Dans le cas de Bell, au Canada, le délestage de Nortel a été une stratégie qui a permis à l’entreprise d’améliorer sa position de trésorerie tout en créant des gains pour les actionnaires. Les ex-titulaires de monopole, devenus ainsi des opérateurs de réseau et des fournisseurs de services, n’avaient pratiquement plus de contrôle sur le rythme de développement de l’innovation. Il faut voir ici qu’en abandonnant la fonction de R et D, les compagnies de télécommunications ont réduit les barrières à l’entrée dans leur industrie, puisque tous les nouveaux venus avaient accès auprès des équipementiers à la plus récente technologie19. Elles ont donc contribué en quelque sorte à accentuer la concurrence dans leur secteur.

En plus de faire des acquisitions, les sociétés de téléphonie ont aussi conclu des alliances avec d’autres sociétés, surtout à l’étranger. AT&T a établi un partenariat avec British Telecom. Sprint faisait partie de Global One, une alliance d’envergure qui comprenait France Telecom et Deutsche Telekom et dont le but était d’offrir des services complets de télécommunications de bout en bout aux grandes multinationales.

Les nouveaux venus associés aux « Barons de la bande passante » ont d’abord compté sur le déploiement de réseaux de fibres optiques à grand débit pour aller chercher des fonds sur les marchés financiers. Mais ils ont aussi déployé des efforts pour développer une clientèle et apporter du trafic sur leur réseau. Dans ce domaine, QWest a été une entreprise modèle durant quelques années et un phare pour les investisseurs. Cette société a conclu plusieurs ententes de partenariat avec diverses entreprises et fait quelques acquisitions stratégiques aux ÉtatsUnis et ailleurs dans le monde, notamment en Europe. Puis, avec la vague de fusions et de consolidations qui prenait de l’intensité à la fin des années 1990, Qwest, en concurrence avec Global Crossing, a réussi à faire l’acquisition de la société de téléphonie locale USWest.

Cette fusion se fondait sur un modèle d’affaires prometteur alliant nouvelle technologie et réseau traditionnel, culture entrepreneuriale et culture de monopoleur, un modèle qui, arrimé aux services aux clients, devait apporter une source de revenu stable. Cependant, en raison de sa capitalisation surévaluée par la vague spéculative, QWest a contracté des emprunts pour faire ces acquisitions, et a donc par la suite fait face à un coût de service de la dette important.

Global Crossing, qui, avec la canadienne 360Network, constituait selon Gilder le modèle d’avenir des sociétés de télécommunications, a aussi emprunté une voie semblable à celle de Qwest en faisant l’acquisition de Frontier, une petite compagnie de téléphonie locale.

Les grands monopoles nationaux en Europe, ainsi que NTT au Japon, ont essayé de se transformer en opérateurs globaux offrant un guichet unique à leurs clients, en faisant des acquisitions, en construisant de nouveaux réseaux et en prenant part aux actions des opérateurs étrangers20. Les compagnies européennes ont aussi misé sur le fait que l’augmentation de la demande dans le domaine des communications fixes serait suivie par une même augmentation en communications mobiles. Ainsi, plus de 100 milliards d’euros (l’équivalent du PIB de l’Irlande) ont été dépensés pour financer l’acquisition de licences des réseaux mobiles 3G.

L’éclatement de la bulle spéculative

Les signes avant-coureurs

C’est en 2000 que les premiers signaux annonçant la fin de la bulle spéculative ont commencé à apparaître, avec l’effondrement des entreprises Internet. Ces firmes, qui devaient éclipser les sociétés de la « vieille économie », ont fait face à une crise de liquidités, et plusieurs ont déclaré faillite. Des prévisions irréalistes concernant les transactions en ligne, une surestimation des revenus publicitaires et de la fréquentation des sites Web, un mauvais choix de modèles d’affaires et une grave sous-estimation de problèmes réels comme l’approvisionnement et la livraison des biens aux clients sont les principaux facteurs qui ont conduit au retentissant échec des firmes Internet21. Ce point tournant a été une première indication très claire qu’il n’y avait aucune commune mesure entre les prévisions de croissance du commerce électronique et la réalité.

Les avertissements de Nortel à l’automne de 2000 à propos de ses ventes et de ses profits ont été le point de départ de la dégringolade de la valeur de son titre. Puis a suivi le krach des marchés financiers (actions et dettes) de 2001, qui a lourdement touché l’industrie des télécommunications.

Chart 1 Schumpeterian Innovation Wave and Market Exuberance

Le retour à la réalité

En peu de temps, tous les agents de l’industrie des télécommunications et du secteur financier ont pris conscience de l’important déséquilibre qui s’était creusé entre la demande et l’offre de bande passante, d’une part, et les services qui y sont associés, d’autre part22. Le problème ne provenait pas du fait que chaque firme prise individuellement installait trop de fibres, mais plutôt du fait que plusieurs firmes étaient en train simultanément de construire des réseaux quasiment identiques. Aux États-Unis, plus d’une douzaine de réseaux dorsaux à l’échelle nationale ont été construits. Un scénario assez similaire s’est reproduit en Europe de l’Ouest23. Le côté sombre des vagues d’innovation à la Schumpeter est illustré à la page suivante à l’aide du graphique 1, qui résume la dynamique réelle et financière du mouvement qui a déferlé sur l’industrie des télécommunications.

Les conséquences du surinvestissement dans les télécommunications

À partir du graphique 1, on constate que l’excès considérable d’offre de bande passante a engendré plusieurs conséquences dans le secteur des télécommunications et sur les marchés financiers.

Chart 2 Transformation of the Bandwidth Market

  • Évaporation de richesse financière : On estime de 224 à 2,5 billions25 de dollars américains les pertes boursières subies par les investisseurs en Amérique du Nord à la suite du krach des valeurs boursières des entreprises de l’industrie des télécommunications. De plus, l’implication des banques dans ce secteur est estimée à 1 billion de dollars américains26. Plusieurs banques ont dû prendre des provisions importantes pour mauvaises créances pour faire suite à la débâcle financière de l’industrie. Il s’agit d’un impact financier considérable qui a touché de façon directe et indirecte tous les agents économiques. En plus de l’effet macro-économique d’une baisse de richesse sur la demande et sur l’épargne, il reste encore à apprécier l’incidence à plus long terme des pertes subies par les caisses de retraite et par les ménages qui gèrent leurs épargnes en vue de la retraite. Il s’agit d’une illustration des effets destructeurs de richesse causés par les bulles spéculatives qui accompagnent les grands mouvements d’innovation à la Schumpeter.
  • Prix et revenus : Avec, d’une part, l’ouverture de la concurrence dans le secteur et les excédents considérables de capacité, et, d’autre part, les effets de la technologie IP qui abaisse le coût de transport de l’information, l’économique des réseaux a amené les sociétés à se livrer une guerre de prix (décrite au graphique 2). D’un prix élevé de monopoleur sur un marché où l’arbitrage était inexistant, on est rapidement passé à un marché de forte concurrence. La bande passante, dont le prix a fléchi de façon accélérée à la fin des années 199027, est devenue l’équivalent d’une matière première qui se transige sur les marchés avec des contrats à terme28. Comme les entreprises, avec la guerre de prix, visaient à prendre des parts plus grandes de marché et à augmenter le trafic sur des réseaux sous-utilisés, cela a eu pour effet net de réduire les revenus des sociétés provenant de services comme l’interurbain. Le trafic a continué de croître (le trafic Internet, par exemple, a doublé chaque année), mais les compagnies de téléphonie ont appris que croissance du trafic n’est pas synonyme de progression des revenus lorsque les prix baissent rapidement. La récession aux États-Unis et le ralentissement de la conjoncture dans les pays industrialisés ont accentué ce phénomène de baisse des revenus.
  • Tensions financières, redressement et faillites : Les sociétés qui avaient fait des acquisitions à des prix gonflés par la vague de spéculation se sont retrouvées avec des dettes parfois énormes. On estime que les sociétés de téléphonie ont accumulé en Amérique et en Europe des dettes de 1 billion de dollars américains29. Avec des revenus bien inférieurs aux prévisions, plusieurs sociétés ont éprouvé de grandes difficultés à faire face aux coûts du service de leur dette. Cette crise de liquidité a conduit plusieurs entreprises à déclarer faillite. Global Crossing et 360Networks sont parmi les nouveaux venus qui ont dû se réfugier derrière les lois sur les faillites pour se protéger de leurs créanciers. D’autres, comme AT&T, ont évité la faillite en vendant divers actifs et en abandonnant à travers une pénible restructuration le modèle du guichet unique. De plus, plusieurs sociétés ont dû faire d’importantes radiations d’actifs acquis au cours du boom technologique avec le dégonflement des valeurs nominales. Cela a fait apparaître des pertes substantielles sans pour autant diminuer la valeur des dettes accumulées. Enfin, le cas de WorldCom illustre les effets pervers d’une spéculation fondée sur des données et des prévisions irréalistes. Devant les attentes du marché financier et une croissance inférieure des revenus par rapport aux annonces de la direction, et face au coût élevé de la dette contractée pour faire des acquisitions, les gestionnaires ont eu recours à des manœuvres frauduleuses pour tenter d’éviter la faillite. Celle-ci n’en a été que plus spectaculaire et dévastatrice pour les actionnaires.

 

  • Les équipementiers : Aux prises avec des excédents considérables de capacité, les sociétés de télécommunications ont réduit de façon draconienne leurs dépenses en capital. Les fournisseurs d’équipement ont dû faire face à un effondrement de leurs commandes. Ils ont dû accepter des pertes importantes sur leurs stocks et leur achalandage, puisque plusieurs de leurs clients se sont retrouvés en difficulté financière ou encore en faillite. De plus, ils ont aussi radié ou encore vendu une partie des actifs acquis pendant la bulle spéculative, dont plusieurs firmes technologiques. Des entreprises comme Nortel, qui avaient financé les achats de clients devenus non solvables, ont dû par le fait même essuyer des pertes additionnelles. Nortel a perdu en quelques mois 98 p. 100 de sa capitalisation et a entraîné dans sa chute plusieurs sous-traitants de haute technologie.

Aujourd’hui, les transporteurs font désormais face à un nouvel environnement qui les force à retarder le déploiement des technologies de nouvelles générations, à réduire leurs coûts et à tirer plus de valeur de leur réseau existant. Cela force les équipementiers à revoir leur stratégie de conception de produits et de mise en marché. Ils doivent, par exemple, offrir des équipements qui permettent de faire le pont entre les réseaux traditionnels des transporteurs avec les nouvelles technologies.

Les aspects positifs de la vague d’innovation

Les actionnaires et les créanciers des entreprises de télécommunications ont subi les contrecoups de la débâcle du secteur. La mauvaise allocation des ressources qui a accompagné le boom Internet a entraîné des pertes importantes pour l’économie, puisque les investissements auraient pu être utilisés de façon plus rentable. Toutefois, la vague d’innovation a eu des effets positifs pour les demandeurs des nouveaux services mis en marché. Elle a aussi contribué à relever les gains de productivité dans l’économie30 et à abaisser les coûts des produits et services vendus sur les marchés. Les consommateurs qui ont profité des baisses de prix et les travailleurs qui ont pu obtenir des gains de salaires sans créer de tensions inflationnistes sont les gagnants de ce boom technologique31. Le graphique 3 illustre les effets positifs de la vague schumpétérienne d’innovation.

Les utilisateurs des services de télécommunications ont bénéficié de plusieurs nouveaux services et d’une baisse importante du prix de la bande passante. Les accès Internet, par exemple, considérés comme des produits à valeur ajoutée au milieu des années 1990, sont rapidement devenus, sous l’effet de la concurrence et de la diffusion de la technologie Internet, des services peu coûteux et facilement accessibles pour les ménages et pour les entreprises. Un abonné à Internet peut communiquer avec un interlocuteur branché de n’importe quelle région du globe sans avoir à encourir de frais d’interurbain. La construction d’un site Web, auparavant considérée comme un service réservé aux grandes entreprises, est maintenant à la portée des petites entreprises et des particuliers.

L’un des effets majeurs de la révolution Internet est la transformation des modèles d’affaires dans l’ensemble de l’économie. Les échanges électroniques de données entre les entreprises au moyen de réseaux privés existaient déjà depuis un certain temps et avaient commencé à transformer les modèles d’affaires32 des grandes entreprises multinationales. Les firmes Internet ont contribué à faire connaître le commerce électronique aux divers agents économiques. De nouvelles firmes ont construit d’emblée des modèles d’affaires rentables fondés sur les échanges électroniques d’information.

Le cas du fabricant d’ordinateur Dell demeure le modèle de référence. L’entreprise traite avec ses clients de partout dans le monde à partir de son site Internet et transmet électroniquement à son réseau de soustraitants les commandes de pièces nécessaires pour répondre aux besoins de la clientèle. Le produit est livré au client et le service après-vente est en bonne partie fait à partir de son site Internet. De plus, Dell accumule sur ses clients diverses informations qui lui permettent de bien connaître leurs besoins et de concevoir en fonction de ces besoins les générations prochaines de produits. Ce modèle permet d’atteindre un haut niveau de productivité, de minimiser les coûts de transaction et d’interaction avec les intervenants tout au long de la chaîne de valeurs ajoutées et d’assurer à la clientèle un service personnalisé.

Les entreprises de toute taille de la « vieille économie » se sont appropriées, à des degrés divers et de différentes façons, ce modèle d’affaires rendu accessible grâce à la technologie Internet et à son réseau public. Cela s’est traduit notamment par des gains de productivité, des baisses de prix de divers biens et services, une accélération de la mise en marché de nouveaux produits plus performants, et une amélioration de la relation entre les clients et les vendeurs. Il s’agit de gains importants pour l’ensemble des agents économiques.

Chart 3 The Schumpeterian Wave The Impact of Innovation and of Broadband Networks

Cette transformation de l’économie est d’ailleurs loin d’être terminée. Sous le jeu de la concurrence et de la disponibilité grandissante de la technologie Internet, notamment dans sa version sans fil, la révolution numérique qui se fait grâce aux réseaux de télécommunications va continuer à moyen terme de transformer les façons de faire dans l’économie, y compris dans le secteur public (incluant, le cas échéant, la santé et l’éducation), et être ainsi une source d’amélioration des niveaux de vie. Les innovations majeures empruntent des parcours difficiles à prévoir et s’échelonnent sur des décennies avant d’avoir leur plein effet. Une erreur majeure des analystes de la révolution numérique a été de croire que les façons de faire dans l’économie et la société en général allaient se transformer rapidement et sans interruption.

Enfin, les prétendus nouveaux paradigmes de gestion ont disparu des analyses financières, et l’on assiste à un juste retour aux critères habituels de rentabilité pour juger des investissements. La distinction entre « vieille » et « nouvelle » économie, à l’origine d’erreurs de prévisions, de décisions d’investissement et de choix de modèle d’affaires33, a pratiquement disparu du vocabulaire des analystes.

Modèles d’affaires : l’approche du « guichet unique » ou de la « convergence »

En plus des excès d’investissement dans les capacités de transport, le choix des modèles d’affaires a aussi contribué à la transformation et aux difficultés du secteur des télécommunications. Parmi les nombreuses fusions qui ont été réalisées dans l’industrie des télécommunications, plusieurs n’ont pas donné les résultats escomptés. Des sociétés doivent aujourd’hui démanteler les conglomérats édifiés pendant le boom Internet, puisque les stratégies, qui reposaient sur des modèles d’affaires fondés sur l’intégration verticale et l’intégration horizontale, se sont avérés des échecs dans plusieurs cas.

Le choix des modèles d’affaires

La stratégie du guichet unique, en régime de concurrence, a pour but d’établir une présence sinon dominante ou à tout le moins incontournable sur le marché. Une telle stratégie est inspirée à la fois de la culture de monopole des entreprises de télécommunications traditionnelles, habituées à offrir tous les services sur le marché, et de la stratégie du regroupement des services (« bundling ») comme technique de marketing visant à maximiser le nombre de clients sur un réseau de transport d’information. Les ex-titulaires de monopole ayant une base de clientèle encore importante, des moyens financiers appréciables et un portefeuille substantiel d’actifs ont vu là une excellente stratégie pour répondre à la concurrence croissante.

À l’opposé de cette approche dont l’objectif est de détenir tous les actifs qui définissent la compétence d’une entreprise, il y a celle du courtier ou de la syndication. Cette stratégie consiste à offrir tous les services aux clients en ne détenant aucune infrastructure ou en ne possédant que certains actifs clés (comme un réseau de téléphonie), et en faisant appel à plusieurs fournisseurs de services qui détiennent des actifs de télécommunications. Un courtier doit avoir une connaissance en profondeur du domaine des télécommunications pour bien répondre aux besoins des clients et être en mesure de gérer tout un réseau de fournisseurs de services. Face à la fragmentation et à la spécialisation du marché de l’informatique, c’est le modèle qu’a récemment appliqué IBM en créant son service de consultation « Global Services », où des spécialistes établissent les meilleures solutions pour les clients, solutions qui comportent des produits qui viennent de fournisseurs autres qu’IBM. La compagnie n’a pas à exceller dans tous les créneaux du marché et met en valeur sa vaste connaissance de l’informatique. IBM s’est mise à l’écoute de ses clients sur un marché où elle a perdu le quasi-monopole qu’elle détenait autrefois.

Chart 4 BCEs Convergence Strategy

Les sociétés traditionnelles de téléphonie ont plutôt été habituées historiquement à fonctionner dans un univers où elles contrôlaient les infrastructures supportant les services offerts34. Lorsque le marché connaît une expansion de capacité et de services offerts, une telle stratégie implique plusieurs acquisitions d’actifs. AT&T et WorldCom, aux États-Unis, et BCE, au Canada, avaient adopté cette stratégie. Du côté des nouveaux venus, la stratégie d’acquisition a été perçue comme un moyen d’acquérir rapidement des clients de façon à accroître l’utilisation des réseaux mis en place. Qwest et AOL sont allées dans cette direction.

La stratégie d’intégration

La stratégie dite de convergence n’est autre chose que la stratégie conventionnelle de l’intégration verticale35. À la fin des périodes d’expansion, lorsque les sociétés ont des liquidités, on assiste souvent à un important courant d’acquisitions dont l’objectif est la création d’une intégration verticale ou encore horizontale d’entreprises. L’intégration verticale comme stratégie d’affaires n’a pas eu historiquement beaucoup de succès36. Récemment, une étude37 réalisée à l’échelle mondiale a montré que, sur la période 19901997, peu de fusions ont permis d’atteindre les objectifs poursuivis. Les résultats indiquent que seulement 12 p. 100 des entreprises fusionnées ont réussi à améliorer la croissance de leur chiffre d’affaires. Les entreprises fusionnées dans les secteurs de haute technologie n’obtiennent pas de meilleurs résultats.

L’un des facteurs qui expliquent ces résultats est le fait que ce ne sont pas les coûts et les supposées économies d’échelle et d’envergure ou de réseau qui déterminent le succès d’une fusion, mais bien plutôt la croissance des revenus de l’entité fusionnée. La non-réalisation des promesses des gestionnaires en termes de progression des revenus fait baisser le cours de l’action de la nouvelle société. Les mesures que prennent alors les dirigeants pour réduire les coûts ont pour effet de handicaper la nouvelle entreprise et de l’empêcher de croître. Les problèmes de fusion de différentes cultures d’entreprise rendent, dans ce contexte, les choses encore plus difficiles. On observe alors des ventes d’actifs et un démantèlement au moins partiel du conglomérat. Les actionnaires font ainsi souvent les frais des promesses non réalisées faites par les gestionnaires au moment de l’acquisition.

L’intégration ou la syndication : analyse du cas de BCE

Vue d’ensemble : La stratégie de BCE a été inspirée à la fois du modèle du guichet unique détenteur des actifs de transport et aussi de celui de la « convergence » entre la capacité de transport, l’informatique et le contenu. On retrouvera à l’annexe 1 les principaux éléments de cette stratégie, qui comporte la création de nouvelles filiales, l’acquisition d’entreprises et des alliances avec des partenaires.

« Connectivité, commerce et contenu » étaient les termes retenus pour décrire la stratégie derrière le conglomérat construit par les dirigeants de BCE. On misait sur les synergies entre les différents actifs de l’ensemble de façon à ce que la rentabilité du conglomérat surpasse la somme des profits des unités. Par exemple, à travers le portail Sympatico de Bell Actimedia, on comptait amener les clients à s’abonner au Globe and Mail et à regarder diverses émissions de la chaîne CTV. Avec ce conglomérat, Bell devenait « incontournable » sur le marché des communications. Le résultat de la stratégie de BCE concorde avec les résultats de l’étude McKinsey sur les fusions que nous avons citée plus haut. Les synergies obtenues entre les unités du conglomérat n’ont pas été à la hauteur des attentes. Comme cela a été le cas de façon générale dans cette industrie, le pouvoir d’attraction du portail ainsi que les résultats des efforts de marketing croisé entre les produits offerts sur Internet ont été inférieurs aux prévisions. De plus, l’achat à fort prix de Téléglobe a été une mauvaise acquisition. Les investisseurs ont sanctionné sévèrement la stratégie de BCE.

Convergence : acquisition ou syndication : Le cas de BCE nous permet d’illustrer la stratégie de convergence à l’aide du graphique 4, qui s’applique aux entreprises de communications qui ont adopté la stratégie dite de « convergence » de transport et de contenu. Puis, à l’aide du graphique 5, nous montrerons que BCE aurait pu obtenir les résultats recherchés en utilisant le modèle de syndication qui implique peu ou pas d’acquisitions.

La stratégie de convergence vise à permettre à une entreprise qui vend des services de communications de gravir un échelon de valeurs ajoutées de façon à obtenir un rendement plus élevé sur ses actifs. Dans ce modèle, la combinaison de la connectivité et du contenu vise à attirer une clientèle de plus en plus importante et à amener celleci à faire de multiples transactions électroniques : l’entreprise devient en quelque sorte un cyber-courtier capable d’offrir une vaste sélection de biens et services dont cette clientèle a besoin38.

Au graphique 4, on retrouve, dans la partie inférieure du triangle, la situation de BCE avant ses principales acquisitions. La société possédait un réseau (doté entre autres d’une capacité de transport de données à haute vitesse, Nexia) et offrait des services Internet aux entreprises et aux ménages grâce à Sympatico-Lycos. L’entreprise voulait offrir des produits à plus haute valeur ajoutée, car, sous l’effet de la concurrence, l’accès Internet et les autres produits (comme les engins de recherche ou l’hébergement de données) étaient devenus des services offrant de faibles marges bénéficiaires. C’est pourquoi on a adopté une stratégie qui visait à permettre de se déplacer vers le haut du triangle, où l’on retrouve des activités à plus haute valeur ajoutée. Il s’agissait d’activités d’infomédiation, qui devaient permettre à BCE, avec d’autres partenaires (comme des banques, pour l’aspect financier, et divers fournisseurs de biens et services), de devenir un super-courtier offrant aux clients un vaste choix de transactions. Pour atteindre cet objectif, il fallait offrir du contenu qui attirerait une clientèle plus nombreuse et prête à payer pour y avoir accès. Une clientèle plus importante devait aussi attirer davantage les annonceurs. Plus le portail est connu et agrège le trafic, plus il attire de clients en réduisant les coûts de transaction et de recherche, et plus il tend à s’imposer sur le marché. C’est un effet de réseau semblable à celui qu’a utilisé Windows, de Microsoft, une entreprise qui a réussi ainsi à s’imposer sur le marché. C’est aussi ce que l’on entendait par « effet de levier de la marque de commerce », Bell dans ce cas-ci. C’était au cœur de la stratégie de convergence.

Mais l’effet d’attraction du contenu ne s’est pas manifesté avec l’ampleur prévue, et la fonction d’infomédiaire s’est plutôt fragmentée sur le Web ; ce sont des sites spécialisés comme E-Bay ou Amazon qui ont eu d’avantage de succès en matière de transactions. Il est encore possible que le rôle d’infomédiaire général se développe sur le Web, mais il faudra attendre des générations futures d’internautes pour que cette fonction devienne rentable.

BCE s’est donc retrouvée avec des actifs dont elle n’a pas réussi à tirer la valeur qu’elle prévoyait au moment où elle a réalisé de coûteuses acquisitions. C’est ce qui explique la décision récente de la nouvelle direction de mettre ces actifs en vente. Tous les coûts reliés aux transactions et aux pertes sur la valeur des actifs auraient pu être évités, au moins en partie, si l’entreprise avait adopté la stratégie de syndication illustrée au graphique 5.

La stratégie de syndication ne consiste pas à acheter des entreprises de contenu, mais plutôt à conclure des alliances ou des partenariats avec divers fournisseurs de contenu sans avoir à investir dans les entreprises partenaires, sauf possiblement dans le cas de certaines firmes dont on estimerait que les produits sont essentiels au succès de la stratégie. Avant de conclure des ententes, on peut mettre les fournisseurs en concurrence les uns avec les autres de façon à obtenir les meilleurs rapports qualité/prix. On réussit, de cette manière, à aller chercher une vaste gamme de contenus en fonction des besoins prévus de la clientèle. Il est toujours possible d’ajouter de nouveaux fournisseurs ou de mettre un terme à certaines ententes en fonction de l’évolution des besoins du marché. Le maître d’œuvre doit être capable d’observer efficacement l’évolution du marché, ainsi que de négocier avec plusieurs fournisseurs et de gérer plusieurs ententes à la fois. Cela implique donc certains coûts de complexité qu’il faut pouvoir assumer, mais cette stratégie est beaucoup plus souple et financièrement moins contraignante que celle de l’intégration verticale39.

Chart 5 Convergence through Syndication

Cette stratégie est bien connue dans le monde de l’information ; une entreprise de distribution d’information — un journal, par exemple — doit s’approvisionner à plusieurs sources pour obtenir l’information. Elle peut détenir certains fournisseurs jugés essentiels, mais procédera plutôt, en général, par ententes avec plusieurs sous-traitants. Dans le cas des firmes Internet, le courtier en ligne E-Trade, par exemple, a adopté la stratégie de la syndication en ayant recours à plusieurs fournisseurs d’informations et d’analyses financières. E-Bay, une entreprise Internet rentable, a d’une part plusieurs fournisseurs d’accès en amont, et d’autre part plusieurs autres en aval qui se chargent de livrer et d’assurer les biens échangés sur son site, ainsi que de sécuriser les paiements et, le cas échéant, de faire le recouvrement des créances. E-Bay a récemment acquis Paypal, une entreprise qu’elle a jugée essentielle à la bonne conduite de ses affaires. Autrement, elle fonctionne grâce à des ententes avec plusieurs sous-traitants et partenaires. BCE aurait donc pu utiliser cette stratégie, et il est probable que, de cette façon, la valeur des actions aurait été mieux protégée40. Les difficultés de BCE ne viennent pas seulement de l’excédent de capacité que connaît l’industrie et de la baisse des prix de services comme l’interurbain, mais aussi de son choix de stratégie de croissance.

Cette analyse vaut aussi pour AOL/Time Warner ou encore pour Vivendi, qui ont été les principaux adeptes de la stratégie de convergence. Dans le cas de AOL, non seulement les synérgies souhaitées ne se sont pas matérialisées, mais il y a également eu un problème bien documenté de cohabitation de cultures d’entreprise ; c’est un type de problème que peut entraîner une fusion et dont même la seule perception peut devenir cruciale. Les frictions entre les deux organisations de départ ont aussi contribué à l’échec de la transaction.41 Enfin, au Québec, l’acquisition de Vidéotron par Quebecor est une intégration à rebours, le détenteur de contenu acquérant le transporteur. Quebecor et la Caisse de dépôt et placement auraient sans doute pu éviter en grande partie la radiation d’actifs s’ils avaient mis le contenu de Quebecor en valeur en négociant simplement sa présence sur divers portails. Quebecor n’avait pas, du point de vue de la promotion du contenu, à détenir d’infrastructures de transport pour y arriver; bien sûr, d’autres objectifs ont pu motiver cette acquisition.

Conclusions

En plus de la croissance excessive de la capacité de transport alimentée par les « prophètes » de la bande passante, de mauvais choix de modèles d’affaires sont venus amplifier la débâcle du secteur des télécommunications. Comme bien d’autres gestionnaires l’ont fait dans le passé en période d’expansion économique et à la faveur de marchés financiers très favorables, les dirigeants de l’industrie ont cru que les acquisitions seraient une voie prometteuse pour assurer la croissance des bénéfices à plus long terme. Ces dirigeants ont maintenant l’allure d’apprentis sorciers, alors que leurs successeurs doivent souvent, pour éviter le pire, démanteler les empires édifiés par leurs prédécesseurs. Ce sont les actionnaires et les créanciers des sociétés de téléphonie qui ont fait les frais de cette aventure du guichet unique et de la convergence.

La vague schumpétérienne des télécommunications au Canada

L’ampleur du phénomène

L’ampleur de la vague d’innovation au Canada n’a pas été comparable à celle que l’on a pu observer aux États-Unis. D’abord, au sortir de la récession, le Canada était aux prises avec un déficit budgétaire considérable, et le fardeau de la dette publique pesait lourdement sur l’économie canadienne. Les hausses d’impôt destinées à réduire le déficit freinaient de façon sensible la croissance de la consommation, et les besoins d’emprunts des gouvernements créaient des tensions sur les marchés financiers. Aussi, de 1992 à 1998, la croissance moyenne du PIB au Canada (2,9 p. 100) était sensiblement inférieure à celle des États-Unis, qui se situait autour de 3,5 p. 100. Avec la disparition des déficits et la réduction du poids de la dette, le Canada a vu sa croissance s’accélérer à partir de 1998-1999, alors que la bulle spéculative touchait à sa fin. Le Canada a évité la récession qui a sévi aux États-Unis et qui résultait en bonne partie de l’éclatement de la bulle spéculative décrite plus haut. La chute des entreprises Internet, les faillites spectaculaires d’entreprises de la « nouvelle économie », Enron en tête, et la débâcle du secteur des télécommunications ont entraîné l’économie américaine dans la récession de 2001.

Le Canada n’a pas connu un retournement aussi spectaculaire dans le secteur des télécommunications. Quelques entreprises comme AT&T Canada, 360Network et Téléglobe, filiale de Bell, ont eu recours à la loi sur les faillites, alors que Nortel a subi une restructuration majeure. Cela a certes contribué au ralentissement de l’économie qui s’est produit en 2001, mais sans avoir l’effet qu’a eu l’écroulement des entreprises Internet et de grandes sociétés comme WorldCom sur l’économie américaine.

Ouverture de la concurrence et évolution du marché

Dans le secteur des télécommunications, l’approche du CRTC face à l’ouverture de la concurrence n’a pas conduit, comme cela a été le cas aux États-Unis pour AT&T en 1984, à un démantèlement des plus grosses sociétés canadiennes comme Bell et Telus. Si le Canada avait suivi le modèle américain, BellLocal serait devenue une entreprise indépendante de BellInterurbain. Les ex-titulaires de monopole ont plutôt gardé la partie de leurs opérations reliée aux appels locaux, et ont ainsi conservé leur emprise sur le dernier kilomètre que les signaux doivent parcourir pour atteindre les clients. L’ouverture de la concurrence s’est faite d’abord dans le domaine des appels interurbains, et les membres de Stentor — organisme qui regroupait toutes les entreprises de télécommunications en situation de monopole — ont dû ouvrir leur réseau aux nouveaux venus sur ce marché. Puis, le décloisonnement de la téléphonie et de la câblodistribution (la décision historique 94-19 du CRTC) a permis la concurrence entre ces deux secteurs de transport de l’information. Maintenant, les entreprises de câblodistribution offrent des services d’accès Internet et de transport de données et peuvent offrir des services de téléphonie, alors que les compagnies de téléphone peuvent offrir des services de télédiffusion.

Enfin, l’ouverture de la concurrence sur le marché des services locaux et interurbains s’est faite suivant un processus complexe et s’est accompagnée de règles multiples. Les ex-titulaires de monopole ont dû ventiler leurs coûts et leurs actifs de façon à pouvoir établir des tarifs d’accès à leur réseau. Le rééquilibrage des tarifs sur le marché du service local a permis de réduire l’interfinancement en faveur du marché résidentiel, mais sans l’éliminer complètement. Les concurrents des anciens membres de Stentor ont alors dû, en plus de payer des frais d’accès au réseau, contribuer à l’interfinancement relié au marché du service local résidentiel. Élément plus complexe encore, les nouveaux venus sur la boucle locale ont droit à une subvention transférable (« portable subsidy »), payée à même les contributions, pour compenser l’écart entre les coûts et les tarifs sur ce marché. En somme, le CRTC a considéré que son mandat l’autorise à faire de la redistribution de revenus sur le marché de la téléphonie. Tout cela complexifie le fonctionnement du marché de la téléphonie, et est à l’origine de tensions continuelles entre les nouveaux venus et les ex-titulaires de monopole.

L’approche du CRTC, dite du « retrait du régulateur » (« forbearance ») lorsque la concurrence est suffisante, a permis de créer un environnement concurrentiel sur le marché de l’interurbain au Canada42. En fait, plusieurs entreprises se sont présentées sur le marché de l’interurbain43 ; mais il s’est surtout agi de revendeurs, et un nombre limité de nouveaux venus ont déployé de véritables réseaux sur le territoire. Sauf dans quelques cas, comme celui de Fonorola, ce sont surtout des sociétés ayant des affiliations américaines (par exemple Sprint et AT&T, qui a fait l’acquisition d’Unitel) qui ont investi dans les infrastructures.

Compte tenu de la petite taille du marché canadien et de l’importance qu’y occupent des sociétés comme Bell et Telus, il n’y a pas eu au Canada une vague de nouveaux venus comparable à celle qui s’est produite aux États-Unis, où des entreprises naissantes ont quadrillé le territoire de fibres optiques ; seule 360 Network peut être classée parmi les « Barons de la bande passante ». Enfin, avec l’arrivée d’Internet, plusieurs FSI ont fait leur apparition au Canada et certains, comme I-Star, ont eu des succès éphémères sur le marché financier. Les grandes sociétés de téléphonie et de câblodistribution ont contribué à la consolidation du marché. Il n’y a pas, sur le marché canadien, de FSI comparable à AOL et qui aurait exercé un effet important d’agrégation de trafic et représenté une menace sérieuse pour les télécommunicateurs et les câblodistributeurs.

Le décloisonnement de la téléphonie et de la câblodistribution au moment de la décision historique 94-19 n’a cependant pas eu tous les effets escomptés. Les entreprises de câblodistribution offrent des services d’accès Internet et de transport de données, mais, contrairement aux prévisions, elles n’ont pas envahi le marché de la téléphonie.

La concurrence sur le marché de l’interurbain a été suffisamment importante pour faire en sorte que le CRTC se retire et laisse le marché déterminer les prix. Les ex-membres de Stentor ont perdu des parts significatives de marché dans un contexte de baisse importante des tarifs. En 1999, environ 25 p. 100 des ventes sur le marché de l’interurbain appartenaient aux concurrents des ex-titulaires de monopole44. La baisse des prix a eu un effet négatif sur la rentabilité des anciens membres de Stentor, et ceux-ci ont dû déployer beaucoup d’efforts pour préserver la valeur de leur capitalisation. La stratégie de BCE analysée plus haut et la baisse des prix sur le marché de la téléphonie ont pénalisé les actionnaires de la société. Toutefois, la présence des exmembres de Stentor sur le marché du service local et l’absence quasi totale de concurrence sur ce segment du marché (voir plus loin) ont assuré à ces entreprises un flux de revenus qui a permis de stabiliser leur situation financière. En comparaison, aux États-Unis, les concurrents présents sur le marché de l’interurbain n’ont pas eu cette source stable de revenus et ont donc été encore plus durement touchés par la guerre des prix.

Mais les nouveaux venus sur le marché de l’interurbain ont éprouvé beaucoup de difficulté à atteindre la rentabilité. Le cas de AT&T Canada illustre bien ce phénomène. Grâce à l’intervention du gouvernement fédéral, AT&T Canada a d’abord repris Unitel, qui avait déjà perdu près d’un demi-milliard de dollars ; on a permis à la société américaine de détenir 49 p. 100 de la compagnie canadienne. Mais, ne réussissant pas à être vraiment rentable, AT&T Canada s’est départie du secteur résidentiel (repris par Primus) pour se concentrer sur le lucratif secteur des affaires. Puis, en octobre 2002, l’entreprise a déclaré faillite, et la société-mère américaine a décidé de se retirer de cette filiale. Aujourd’hui, AT&T, allégée du fardeau de sa dette, est devenue Allstream ; on ne peut encore affirmer si elle réussira ou non à être rentable45. Ces nouveaux venus sur le marché de l’interurbain ont toujours soutenu que les frais d’accès au réseau consentis par le CRTC aux ex-monopoleurs étaient trop élevés pour que de nouvelles entreprises puissent être rentables. Nous reviendrons plus loin sur cette épineuse question de la rentabilité des concurrents de Telus et de Bell et des frais d’accès au réseau.

Comme cela a été le cas aux États-Unis, les utilisateurs canadiens — aussi bien les ménages que les entreprises — sont les grands gagnants de l’ouverture de la concurrence et du boom de la technologie. Grâce au jeu de la concurrence, ils ont bénéficié d’une baisse des prix de l’interurbain et des accès Internet. Ils ont aussi profité de nombreux nouveaux services offerts sur le marché. Et grâce entre autres au réseau de câblodistribution, les Canadiens bénéficient maintenant d’une offre concurrentielle en matière d’accès Internet à haute vitesse.

L’évolution de l’industrie des télécommunications

L’industrie au sortir de la correction de marché

L’industrie doit maintenant composer avec les conditions qui découlent des excès spéculatifs des dernières années, et satisfaire les besoins d’une clientèle dont les objectifs sont arrimés à la réalité économique. Du coté de la demande, l’ensemble de l’économie continue à se numériser, mais à un rythme réaliste et sous des contraintes de coûts et de rentabilité. Le commerce électronique va continuer de progresser, mais pour atteindre des niveaux bien inférieurs à ceux que certains prévoyaient il y a quelques années. Du côté de l’offre, on estime que l’industrie fonctionne à environ 40 p. 100 de sa capacité46 et qu’il faudra attendre jusqu’en 2006 avant que l’excédent se résorbe.

De plus, une menace, liée à la loi sur les faillites, pèse sur l’industrie. Lorsque des sociétés utilisent cette loi pour se protéger de leurs créanciers, leur capacité de transport ne disparaît pas pour autant. Si elles réussissent à s’entendre avec leurs créanciers, elles reviennent alors sur le marché avec une dette allégée, tandis que leurs concurrents qui n’ont pas fait faillite doivent continuer à assumer les coûts de service de leur dette. Au Canada par exemple, 360Networks, AT&T Canada et Téléglobe ont conclu de telles ententes avec leurs créanciers. Des investisseurs peuvent aussi racheter les sociétés en faillite à un prix bien inférieur aux coûts encourus pour mettre en place des réseaux de transport à haute capacité. Déjà, on a assisté à quelques achats de transporteurs à des prix qui ne représentaient qu’une fraction de la valeur passée de ces entreprises47.

On voit ici l’asymétrie concurrentielle qui risque d’émerger sur le marché des télécommunications. Les entreprises acquises à bon marché ou celles qui se sont allégées du fardeau de leur dette pourront, pour augmenter la clientèle sur leur réseau, déclencher une autre guerre des prix qui risque d’être fatale aux compagnies qui ont réussi à survivre aux conditions difficiles du marché. Des sociétés américaines endettées comme Verizon, QWest ou encore AT&T pourraient à leur tour devoir se réfugier derrière la loi sur les faillites. On pourrait alors parler d’effet « domino », une situation que prédisent certains analystes48, et qui confirmerait la tendance dangereuse à la baisse des prix associée à l’excédent de capacité, dévastatrice pour les investisseurs du secteur des télécommunications. Le processus de destruction de richesse dû aux excès passés pourrait donc se poursuivre pendant un certain temps avant que l’industrie ne réussisse à se stabiliser.

La poursuite de la consolidation

Compte tenu de l’excédent d’offre, ainsi que de l’économique des réseaux — qui exige que l’on amortisse les frais fixes des infrastructures sur le plus grand nombre possible de clients —, le mouvement de consolidation qui s’est amorcé avec la faillite de plusieurs transporteurs devrait se poursuivre pendant une certaine période. Les ex-titulaires de monopole de la boucle locale aux États-Unis (les RBOC), en particulier, se retrouvent actuellement dans une situation financière généralement meilleure que les autres transporteurs et pourraient faire l’acquisition à des prix très avantageux de sociétés d’interurbain qui viennent de se sortir de la faillite ou qui luttent pour l’éviter. Dans leur résistance à ouvrir le marché local à la concurrence (que nous analyserons plus loin), ces sociétés ont déjà procédé à une vaste consolidation de ce segment du marché des télécommunications, grâce à plusieurs acquisitions. SBCCommunications, par exemple, est devenue de cette façon un nouveau géant des télécoms.

Récemment, certains États ont forcé les RBOC à baisser leurs tarifs de gros sur la boucle locale de façon à stimuler la concurrence. AT&T a profité de ces décisions pour assurer une présence sur le marché du service local dans huit États, et WorldCom, maintenant sous le chapitre 13 de la loi américaine sur les faillites, offre des services locaux dans 33 États49. Si cette concurrence continue de prendre de l’ampleur, il pourrait être possible que l’on autorise les RBOC qui ont le droit d’être présentes sur le marché de l’interurbain à acquérir un transporteur50. Le marché américain se rapprocherait alors du marché canadien, puisque des sociétés pourraient être présentes à la fois sur le marché de l’interurbain et sur la boucle locale. Si, à titre d’exemple, un géant comme SBCCommunications, ou encore Verizon51, faisait l’acquisition à un prix avantageux d’un autre géant en faillite comme WorldCom, la nouvelle entreprise serait en position de mieux exploiter les économies de réseau et d’assurer un flux plus stable de revenus. Une telle consolidation nous amènerait vers un marché des télécommunications à caractère plutôt oligopolistique.

Au Canada, on a aussi assisté à la consolidation du marché, que l’on peut par exemple observer avec ce que sont devenus des ex-membres de Stentor. BCTel et AGT, dans l’Ouest canadien, se sont regroupées pour former Telus, qui a par la suite procédé à des acquisitions sur le marché canadien, notamment en achetant QuébecTel, au Québec, et Clearnet, en Ontario, dans le domaine du sans fil, avec l’objectif de concurrencer Bell sur l’ensemble du territoire canadien. On a vu que Bell a conclu diverses alliances impliquant des participations financières pour étendre sa présence sur le marché canadien. Sprint Canada a fait l’acquisition du transporteur Fonorola, spécialisé dans les services aux entreprises, et AT&T Canada a acheté MetroNet, un fournisseur de téléphonie locale pour les entreprises dans les grands centres urbains. Telus, nous l’avons dit, s’est portée acquéreur de QuébecTel, alors que Bell a conclu divers accords avec des transporteurs comme Aliant, dans l’Est du pays, et Manitoba Tel, dans l’Ouest, en plus de détenir Télébec au Québec.

La consolidation du marché peut aussi se faire à travers de nouveaux venus qui disposent des liquidités et de l’expertise nécessaires pour offrir des services spécialisés. Ainsi, Integrated Device Technology (IDT), un intégrateur de systèmes, a acquis le transporteur en faillite Winstar pour une fraction de sa valeur aux livres (42 millions de dollars), et pourrait faire d’autres acquisitions à bon marché de sociétés en faillite ou en difficulté.

Les modèles d’affaires en émergence

Après la convergence et le guichet unique, les modèles d’affaires qui devraient s’imposer sont ceux qui exigent une plus grande spécialisation des entreprises. Les tendances récentes de consolidation permettent de prévoir que trois modèles d’affaires seront très présents dans les années à venir. Le premier est celui des sociétés de téléphonie qui, s’étant recentrées sur leur mission traditionnelle, deviendraient dans un monde compétitif des transporteurs très efficaces aux coûts d’exploitation très bas, d’une grande fiabilité et offrant des platesformes capables d’intégrer les diverses technologies sur le marché. On peut penser que le recentrage en cours de Bell Canada va dans cette direction.

Le deuxième modèle d’affaires correspond aux entreprises qui occuperaient un créneau spécialisé du marché, comme les services à large bande, notamment pour les échanges de données complexes entre les entreprises ou d’autres organisations à l’échelle internationale. En consolidant des réseaux à large bande et en utilisant son expertise informatique, une entreprise comme IDT pourrait se diriger vers ce modèle. Au Canada, AT&T, devenue Allstream après sa faillite, a cédé sa clientèle résidentielle à Primus et se spécialise maintenant dans les services aux entreprises.

Enfin, le troisième modèle — nous l’avons décrit plus haut — est celui du courtier qui offre, en partenariat avec d’autres sociétés, un assemblage de solutions à ses clients. C’est le cas, par exemple, des sociétés de téléphonie qui délaissent le rôle de transporteur pour se concentrer sur une offre de services à valeur ajoutée. La nouvelle direction de AT&T, aux États-Unis, semble aller dans cette voie. AT&T s’est départie de plusieurs actifs liés au modèle de guichet unique et désire se retirer du secteur résidentiel pour se consacrer aux services aux entreprises. La société a d’ailleurs conclu en décembre 2002 une entente avec IBM et Intel pour créer une coentreprise, Cometa Networks, qui offre les services d’un réseau intégré d’accès Internet sans fil (Wi-Fi) aux entreprises dans les aéroports, les édifices à bureaux et d’autres lieux publics. AT&T a donc assemblé avec des partenaires une offre de services à valeur ajoutée pour les entreprises qui doivent maintenir un contact Web continu avec leurs cadres en déplacement.

Dans quelques années, l’industrie des télécommunications aura changé de profil et redeviendra, après les « années folles » du boom Internet, une industrie mieux ancrée dans la réalité du marché et bien arrimée sur des critères de rentabilité.

Les politiques de régulation et la vague schumpétérienne

L’ouverture de la concurrence sur les marchés de la téléphonie a été un élément important de la vague d’innovation des années 1990. Si les sociétés de téléphonie avaient conservé leur monopole, elles auraient contrôlé le rythme d’introduction des nouvelles technologies. Afin de récupérer les coûts historiques de leur réseau, elles auraient eu intérêt à ralentir la modernisation de leurs équipements. Ce faisant, les équipementiers auraient été moins pressés de mettre en marché des produits de plus en plus performants grâce à toute une série d’innovations incrémentielles. De plus, si le système de réglementation qui déterminait les tarifs des services sur la base de leur coût plus un rendement juste et équitable avait été maintenu, les prix n’auraient pas suivi la tendance à la baisse en accéléré que l’on a enregistrée au cours de la dernière décennie. La pénétration de la technologie Internet dans l’ensemble de l’économie aurait été nettement plus limitée que celle que l’on observe maintenant. À cet égard, d’ailleurs, l’hésitation de certains pays européens à permettre la concurrence sur leur marché des télécommunications a retardé la numérisation de leur économie et donc réduit leur capacité concurrentielle52. La concurrence a donc été un facteur déterminant pour l’éclosion du boom technologique.

Toutefois, dans le secteur de l’interurbain, le régime concurrentiel et l’économique des réseaux n’ont pas produit des résultats optimaux, c’est-à-dire des résultats où, idéalement, l’intérêt des clients et celui des actionnaires des sociétés de téléphonie convergent. D’autre part, sur la boucle locale, la concurrence s’est révélée complexe et n’a pas produit les résultats escomptés.

L’héritage du passé et l’ouverture de la concurrence

L’ouverture de la concurrence sur le marché de l’interurbain et sur la boucle locale suppose que les organismes de régulation établissent pour les concurrents qui s’amènent sur le marché les tarifs d’accès aux réseaux des exmonopoleurs : c’est l’un des problèmes majeurs que pose l’ouverture de la concurrence. En pleine vague d’innovation, la détermination de ces tarifs est encore plus complexe, puisque la nouvelle technologie de transport d’information en protocole IP est nettement moins coûteuse que celle des réseaux hérités du passé.

En principe, les coûts d’accès à ces réseaux devraient refléter les prix que l’on pratiquerait en situation concurrentielle. Or, si un organisme de régulation permet à un ex-titulaire de monopole de réclamer ses coûts historiques, les nouveaux venus ne paient pas à la marge uniquement pour le service rendu, mais défraient aussi une partie des amortissements de tous les investissements qui ont déjà été réalisés par le monopoleur. Dans un marché concurrentiel, les amortissements historiques sont non pertinents puisque ce sont les conditions courantes de l’offre et de la demande qui déterminent les prix. Aux États-Unis, la réponse de la FCC à ce problème en 1996 au moment de l’ouverture de la concurrence sur le marché local a été d’utiliser l’approche des coûts de la technologie la plus récente53 pour déterminer les tarifs d’accès sans faire référence aux coûts historiques des monopoleurs. Cette approche a soulevé un tollé de la part des RBOC, qui se sont lancées dans une querelle juridique, qu’elles ont en partie gagnée54. L’un des arguments des ex-monopoleurs consistait à souligner qu’ils avaient investi en toute bonne foi dans le passé et que leurs actionnaires ne devaient pas faire les frais de l’ouverture de la concurrence55. C’est donc une question complexe qui illustre une autre dimension de l’économique des réseaux56. On ne peut mettre rapidement au rancart un réseau dans lequel un transporteur a investi des sommes appréciables sans pénaliser les actionnaires qui ont investi avec les informations du moment dans la société de téléphonie qui a bâti ce réseau.

Au Canada, sur cette question, le CRTC a tenté de prendre une voie intermédiaire en permettant aux extitulaires de monopole de récupérer une bonne partie de leurs coûts historiques et en utilisant également les coûts incrémentiels à long terme pour établir les tarifs d’accès. On peut comprendre les tensions qui existent sur le marché à propos de ces tarifs, puisque les nouveaux venus estiment payer pour des coûts historiques dont ils ne retirent aucun bénéfice. À cette difficile question s’ajoute le fait que le CRTC ne favorise pas un fonctionnement efficace du marché des télécommunications lorsqu’il continue à faire de la redistribution de revenus en maintenant cet héritage de l’interfinancement en faveur des abonnés résidentiels. Le rééquilibrage des tarifs aurait dû permettre l’élimination de l’interfinancement, et le CRTC aurait dû laisser au gouvernement fédéral le soin de régler cette question. Si le gouvernement estime que la téléphonie doit être abordable pour tous les citoyens, il y aurait alors lieu d’accorder un crédit d’impôt (comme on le fait pour la TPS) aux contribuables à faible revenu pour couvrir les frais reliés à l’augmentation des tarifs de téléphonie. De cette façon, les nouveaux venus n’auraient pas à contribuer à un fonds destiné à interfinancer le marché local. Cela ferait au moins disparaître l’une des sources de tension sur le marché des télécommunications.

En fait, des sociétés comme CallNet Entreprises et AT&T Canada ont toujours prétendu que les tarifs d’accès au réseau de Telus et de Bell étaient trop élevés pour leur permettre d’être rentables. AT&T Canada a d’ailleurs contesté la dernière décision du CRTC qui a plafonné les tarifs résidentiels jusqu’en 2006 et réduit les frais d’accès au réseau de 15 p. 100 en mai 2002. Cette réduction était bien inférieure à celle que demandait AT&T Canada, mais le cabinet des ministres qui a entendu l’appel a maintenu la décision du CRTC57. De plus, le CRTC a estimé d’une part que la concurrence sur le marché de l’interurbain était en baisse et d’autre part que Bell, Aliant, Telus, MTS et Saska Tel n’avaient pas respecté certaines de ses décisions concernant l’accès des concurrents à leur réseau. Enfin, il y a également des affrontements entre les câblodistributeurs et les sociétés de téléphonie, notamment en ce qui a trait à l’offre de services de télévision.

Après 10 ans de concurrence dans le secteur des télécommunications, on doit constater qu’il existe encore beaucoup de tensions entre les divers intervenants sur le marché canadien et qu’il est très difficile pour les nouveaux venus d’être rentables. La concurrence a eu plusieurs effets bénéfiques pour les utilisateurs, mais les actionnaires ont subi les contrecoups de la concurrence. Aux États-Unis, avant le boom Internet, des concurrents importants de l’ex-monopoleur AT&T58, comme MCI ou Sprint, ont atteint la rentabilité sur le marché de l’interurbain. Au Canada, la petite taille du marché, compte tenu de l’économique des réseaux, peut expliquer en partie ce résultat. De plus, le fait d’être présents sur la boucle locale et le marché de l’interurbain peut conférer aux ex-monopoleurs des avantages sur le plan de la détermination des tarifs et des stratégies commerciales. Le CRTC a d’ailleurs établi diverses règles pour éviter que les ex-monopoleurs utilisent des pratiques de prix d’éviction face à leurs concurrents. Cependant, les ex-membres de Stentor ont une marge de manœuvre en matière de groupement (« bundling ») des offres que n’ont pas nécessairement les nouveaux venus. Les affrontements sur le marché de la télévision portent justement sur l’interfinancement que Bell serait en mesure de faire entre ses services groupés offerts sur le marché.

En conclusion, on peut donc se demander si la façon dont s’est faite la concurrence dans les télécommunications sur un marché de la taille de celui du Canada permet la présence d’un certain nombre de concurrents rentables à moyen terme. L’expérience canadienne n’est pas concluante à ce stade-ci et soulève diverses questions que nous examinerons en termes plus généraux à la dernière section. On ne doit pas souhaiter que les télécommunications comme secteur innovateur et absolument essentiel au bon fonctionnement et à la compétitivité de l’économie empruntent une voie semblable à celle du transport aérien, où il est devenu très difficile d’être rentable et où l’on voit des géants recourir à tour de rôle à la loi sur les faillites pour assurer leur survie à moyen terme. Ce modèle conduit à un assèchement de l’offre de fonds qui est essentielle pour financer les investissements qui sont le véhicule du progrès technologique. Cela est encore plus vrai dans le contexte actuel des contraintes sur l’investissement étranger. En revanche, comme nous l’avons indiqué plus haut, la concurrence a été un facteur essentiel de la vague d’innovation de la dernière décennie. Pour le marché canadien, la formule qui permettrait de faire converger l’intérêt des utilisateurs et des actionnaires resterait à déterminer.

Enfin, l’ouverture de la concurrence sur le marché local aux États-Unis et au Canada a eu relativement peu d’effet. Au Canada, les ex-titulaires de monopole détiennent environ 98 p. 100 de ce marché59. Le CRTC n’a pas proposé de tarifs de gros d’accès à la boucle locale qui auraient pu encourager des revendeurs à tenter leur chance sur le marché local. L’approche du CRTC vise plutôt à inciter d’éventuels concurrents à faire des investissements dans des équipements pour offrir des services sur le marché local. Cette stratégie ne semble pas prometteuse, puisqu’il n’est pas rentable, sauf dans les zones d’affaires très denses des centresvilles, d’avoir des réseaux concurrents sur le marché local. Dans ces conditions, la stratégie d’écrémage des concurrents va les amener à offrir des services particuliers sur le lucratif marché de la grande ou moyenne entreprise, de sorte que les parts de marché des nouveaux venus resteront très modestes. C’est d’ailleurs la stratégie qu’avait choisie MetroNet à ses débuts sur le marché de la téléphonie locale, une entreprise qui a par la suite été achetée par AT&T Canada.

La concurrence sur la boucle locale sera plutôt à caractère technologique60. Les câblodistributeurs offrent des accès Internet à haute vitesse et peuvent se lancer dans la téléphonie Internet. À cet égard, le projet de téléphonie Internet de Vidéotron, en alliance avec Cisco, et qui aurait pu se concrétiser par une fusion avec Rogers Communications, a été abandonné au moment de l’acquisition de Vidéotron par Quebecor. Si ce projet avait été mis de l’avant, peutêtre aurions-nous eu une véritable concurrence sur la boucle locale grâce à une concurrence entre des technologies différentes. De plus, la forte concurrence entre les fournisseurs de service sans-fil offre déjà un choix aux usagers. Le progrès dans le sans-fil, avec le déploiement éventuel du 3G ou même du 4G, permettrait de contourner les infrastructures locales des extitulaires de monopole.

Économique des réseaux et concurrence

Pour être rentable, un projet d’investissements dans de coûteuses infrastructures suppose un taux d’utilisation élevé. Les entreprises qui déploient des réseaux de communications cherchent à obtenir le volume de trafic le plus élevé possible sur leur réseau. Le coût marginal de clients additionnels est minime, alors que le coût moyen dépend du taux d’utilisation des infrastructures. Les techniques de compression qui ont multiplié la capacité des fibres optiques et la technologie Internet ont rendu encore plus péremptoire la nécessité d’obtenir le trafic le plus élevé possible pour que les installations soient rentables. En présence d’une vague d’innovation à la Schumpeter et sur un marché complètement ouvert à la concurrence, les agents économiques ont tendance à largement surestimer les besoins d’investissements. Cette vague d’optimisme excessif décrite plus haut s’est répétée à quelques reprises dans l’histoire économique. Nous avons fait référence au cas de l’électricité vers 1890, mais il y a eu aussi toute la construction non réglementée des chemins de fer au moment de la conquête de l’Ouest américain au XIXe siècle. L’installation de réseaux concurrents a alors donné lieu à une vague de faillites, qui a amené le gouvernement américain à réglementer l’industrie des chemins de fer au siècle suivant61.

Pendant la vague d’innovation Internet, il est devenu évident que l’on se dirigeait vers des excès importants d’investissements, particulièrement lorsque sont apparus sur le marché les « Barons de la bande passante ». Le président de la Federal Reserve a bien mis les investisseurs en garde face à ce phénomène d’« irrational exuberance », mais sa force de persuasion morale n’a pas été suffisante pour calmer les excès d’optimisme. En fait, il faut bien dire que le milieu financier n’avait aucun intérêt à ralentir cette vague d’irrationalité au moment où les premiers appels publics à l’offre d’épargne ainsi que les émissions d’actions et de dettes des sociétés atteignaient des sommets. De plus, des analystes et des courtiers n’ont pas hésité à faire la promotion de titres dont ils savaient pertinemment qu’ils n’avaient pas de valeur62. Comme nous l’avons indiqué plus haut, la question de savoir si la Federal Reserve n’aurait pas dû augmenter son taux directeur pour calmer cette vague spéculative reste ouverte.

À notre avis, précisément à cause de l’économique des réseaux et face à l’emballement des marchés financiers, les organismes de régulation auraient pu limiter, grâce à l’émission de licences d’exploitation de réseaux de télécommunications, la construction de réseaux de façon à éviter un gaspillage des ressources et une dilapidation du capital des actionnaires.

D’ailleurs, les compagnies de télécommunications connaissaient depuis longtemps le principe du partage des infrastructures. Dans une industrie où les économies de réseau sont fondamentales pour assurer la rentabilité des investissements, la « copropriété » sous diverses formes ou le partage en « condominium »63 des satellites ou des câbles sousmarins et d’autres infrastructures ont toujours été une pratique fréquente. Notamment, les grands transporteurs internationaux ont souvent partagé les coûts d’infrastructure de façon à ne pas bâtir de coûteux réseaux parallèles. Sur un nouveau réseau qui n’hérite pas des frais d’amortissement d’investissements passés, il devrait être nettement plus facile à des transporteurs de s’entendre sur un partage des coûts et de la capacité. C’est ce que plusieurs institutions publiques ont fait au cours des dernières années au Canada64. Au moment où elles ont tenu des audiences sur l’accord de licences d’exploitation à des entreprises qui désiraient investir dans un réseau ou une portion de réseau, les organismes de régulation auraient pu appliquer ce principe de partage de la capacité des réseaux au déploiement des réseaux de fibres optiques sur le territoire nord-américain. Une telle procédure ne suppose pas que les régulateurs possèdent une meilleure information sur les conditions du marché que les investisseurs privés. Les régulateurs auraient plutôt demandé aux sociétés de présenter leur projet d’investissements — et donc de fournir l’information dont elles disposaient pour justifier ces investissements —, et auraient examiné avec elles la possibilité de partager des infrastructures. Cela aurait eu pour effet de mieux organiser l’information sur les intentions d’investissement des divers concurrents sur le marché et, par conséquent, de permettre d’analyser les attentes des investisseurs sous un autre éclairage. L’exercice aurait pu notamment mettre en lumière la mauvaise estimation de la demande en pleine période spéculative, chaque transporteur croyant pouvoir prendre des parts importantes de marché. De plus, les transporteurs qui auraient investi dans un réseau partagé auraient pu accepter de l’ouvrir à des tiers contre rémunération. Les règles d’accès à un réseau établies par le régulateur auraient alors servi à établir la tarification de façon que d’autres entreprises aient accès à ce nouveau réseau à un coût concurrentiel. À nouveau ici, des coûts d’infrastructures auraient pu être évités.

Globalement, ce processus aurait permis d’augmenter la rentabilité des projets en évitant un gaspillage des ressources. Ce faisant, le boom d’investissements aurait été probablement moins important et l’on aurait pu protéger les intérêts des investisseurs. Du point de vue des consommateurs, il n’était pas nécessaire d’avoir cet énorme excédent de capacité pour faire baisser les prix et voir apparaître sur le marché plusieurs nouveaux services. On doit reconnaître qu’une telle mesure d’intervention sur le marché des télécommunications au moment du déferlement de la vague Internet, et pour les raisons mentionnées plus haut, aurait été très mal vue de la communauté financière, qui aurait plaidé le libre marché pour assurer une allocation efficace des ressources. De plus, certains membres de l’industrie des télécommunications n’ont pas la réputation de se prêter facilement à ce genre de coopération65, puisque selon la culture de l’industrie, comme nous l’avons vu, les entreprises préfèrent être propriétaires des actifs qui sont à l’origine des compétences offertes. Cependant, les excès de la dernière vague et le mouvement de consolidation en cours devraient à l’avenir favoriser un changement de l’attitude des transporteurs sur cette question. Au Canada, à cet égard, on a vu, après l’acquisition de Clearnet par Telus, cette dernière et Bell Mobilité s’entendre sur un partage des infrastructures de leur réseau sans-fil.

Perspectives d’avenir

Alors que l’on n’a pas encore fini d’évaluer les impacts de cette vague schumpétérienne, l’évolution de la technologie et l’apparition de nouvelles firmes dans l’industrie des télécommunications posent de nouveaux défis aux sociétés en place et aux régulateurs. Les difficultés financières des sociétés de télécommunications avaient ralenti le rythme de l’innovation. Déjà, depuis un bon moment, on parle du transport de la voix sur le réseau Internet. Des firmes comme Cisco Systems ont investi des sommes importantes pour mettre au point cette technologie. Or, récemment, aux États-Unis, Vonage a offert à un coût forfaitaire mensuel modeste un service de téléphonie Internet où la notion d’interurbain a disparu : les abonnés peuvent ainsi appeler partout aux États-Unis et au Canada ; il suffit d’avoir une connexion Internet à haute vitesse pour obtenir ce service66. Cette entreprise est donc en voie de relancer l’innovation dans l’industrie. Au Canada, Primus vient d’annoncer qu’elle allait offrir ce service, et Bell Canada, en partenariat avec Cisco, prévoit se lancer dans la téléphonie Internet. Le modèle d’affaires de Vonage va poser un défi à la fois aux ex-titulaires de monopole, dont les réseaux sont menacés par cette technologie, et aux régulateurs, qui auront à établir des règles pour encadrer l’exploitation de ce nouveau service67. La réflexion s’amorce donc, puisque des sociétés de téléphonie, aux États-Unis et au Canada, ont demandé aux organismes de régulation de tenir des audiences sur cette question.

L’implantation rapide de la technologie WiFi à l’aide du déploiement de « Hot Spots » permettant des accès Internet à haute vitesse aux États-Unis et au Canada représente une autre menace concurrentielle sur la boucle locale. Mais cette technologie risque à court terme de devenir désuète68, puisque des entreprises comme ArrayCom, IPWireless, Navini et d’autres mettent actuellement au point une nouvelle technologie d’accès Internet sans-fil à haute vitesse, le 4G, qui contourne la faiblesse du WiFi, soit le court rayon d’émission des « Hot Spots ». Avec le 4G, on peut adopter une stratégie de saute-mouton, c’est-à-dire laisser tomber le 3G et avoir la capacité de construire un réseau national d’accès Internet à haute vitesse sans-fil, tandis que les limites du WiFi rendent pratiquement impossible le déploiement d’un réseau national. C’est d’ailleurs ce qu’une entreprise comme Nextel entend faire pour devenir un fournisseur d’accès Internet à haute vitesse sans-fil. Cela représente une autre menace majeure pour les réseaux des ex-titulaires de monopole. Le progrès technologique est en voie de réussir ce qu’une réglementation complexe sur la boucle locale n’est pas vraiment parvenue à faire, à savoir l’implantation d’une véritable concurrence sur le marché du service local. L’innovation technologique n’a pas fini de transformer l’industrie des télécommunications.

Quelques conclusions

Au cours de la dernière décennie, on a assisté à une vague d’innovation à la Schumpeter dans le secteur des télécommunications. Cette vague a eu des effets positifs sur l’organisation de la société et sur la productivité des entreprises au moment où Internet est rapidement devenu un moyen de communiquer, de diffuser de l’information et d’échanger des biens et services. Les utilisateurs des télécommunications ont profité d’une baisse appréciable des prix et d’une multiplication des services offerts.

Cependant, ces vagues d’innovation ont également un côté sombre. Alimentée par le secteur financier et associée à une série d’innovations incrémentielles, la croissance des investissements a été excessive et a créé un profond excédent de capacité de transport de l’information par rapport à la demande. Il reste à déterminer si une intervention préventive des banques centrales, au moment où l’inflation des valeurs boursières s’est accélérée, aurait pu limiter l’ampleur de ce mouvement spéculatif comparable à ceux qui se sont produits à plusieurs reprises dans des circonstances analogues au cours de l’histoire des innovations. Le débat sur ce point reste ouvert.

Les stratégies utilisées par les entreprises de télécommunications durant cette période n’étaient pas basées sur des modèles d’affaires très sains, surtout si on les considère du point de vue de l’ensemble de l’industrie plutôt que du point de vue d’une firme en particulier. Il faudra encore un long moment, dans cette industrie, avant d’éliminer l’excédent de capacité qui a résulté de ces stratégies, et qui se traduit encore par une tendance très forte à la baisse des prix. De plus, la stratégie du guichet unique (ou de la convergence) entre les entreprises de communications et les créateurs de « contenu », à l’origine de toute une série d’acquisitions, s’est, dans l’ensemble, révélée beaucoup trop coûteuse par rapport à ce qu’aurait été une stratégie plus souple basée sur la syndication.

Actuellement, l’industrie revient progressivement à un fonctionnement arrimé à la réalité du marché. Elle remet de l’ordre dans les bilans financiers et simplifie les modèles d’affaires, tout en tentant d’offrir des services et des « solutions » correspondant plus étroitement aux besoins des clients. Opérateurs efficaces et fiables, firmes spécialisées dans certains créneaux ou assembleurs des meilleures solutions de télécommunications : voilà à quoi correspondent les modèles d’affaires qui émergent actuellement dans l’industrie.

Dans ce contexte, le recours aux lois sur les faillites comporte un danger pour l’industrie, puisque les sociétés qui utilisent ce moyen pour éliminer leur dette sont ensuite tentées de lancer une autre guerre de prix en raison des capacités excédentaires. Cela pourrait créer des tensions financières ou même de nouvelles faillites chez les transporteurs qui doivent encore supporter des dettes parfois considérables.

L’industrie reste donc en pleine mouvance. Dans ce contexte, le régulateur canadien n’a pas mal tiré son épingle du jeu. Il a facilité dans l’ensemble le progrès technologique et une baisse des prix au Canada. L’ouverture de la concurrence sur les marchés de la téléphonie a été un facteur important de la vague d’innovation des années 1990. Mais la concurrence, même balisée par les régulateurs, n’a pas eu que des effets bénéfiques. On voit aujourd’hui que les forces naturelles du marché dans une industrie où les économies de réseau sont fondamentales n’ont pas permis d’obtenir une allocation efficace des ressources qui aurait fait coïncider les intérêts des utilisateurs et ceux des investisseurs. Les organismes de régulation auraient pu, à notre avis, fournir certaines balises pour éviter ce gaspillage de ressources dû à la fois aux espoirs irréalistes qu’avait chacun des concurrents de hausser sa part de marché et à de mauvaises estimations de la demande. Par exemple, en encourageant le partage ou la copropriété des infrastructures, on aurait pu éviter les pertes, tout en maintenant la baisse des prix.

Cela dit, la récupération par les anciens monopoleurs des coûts historiques de leurs investissements en infrastructures demeure un élément important de tension entre ceux-ci et les nouveaux venus, au Canada comme aux États-Unis. Les modes d’établissement des tarifs d’accès aux réseaux des exmonopoleurs restent problématiques ; de plus, les mesures de redistribution du revenu mises en place par le CRTC rendent le fonctionnement du marché plus complexe, et enlèvent souvent aux anciens monopoleurs la flexibilité qu’exigent les nouvelles conditions du marché. Au Canada, compte tenu de la taille du marché, il n’est en fait pas sûr que les nouveaux venus réussiront à être rentables.

En fait, il faut bien constater que la concurrence sur le marché local demeure encore très faible, voire inexistante, au Canada et aux États-Unis. Il faut aussi constater que l’on n’a pas trouvé de modèle de régulation qui puisse résoudre ce problème et produire les résultats désirés. La question des coûts historiques est en cause, de même que celle des économies de réseau, qui suggèrent l’existence d’un monopole naturel en ce qui concerne la téléphonie traditionnelle. Dans ce contexte, il faut se demander si l’approche du CRTC, qui consiste à essayer d’équilibrer les intérêts des nouveaux concurrents et ceux des ex-monopoleurs, ne mène pas à un cul-de-sac économique, en ce sens qu’elle essaie de créer une concurrence là où cela n’est pas naturellement rentable, et limite la flexibilité des ex-monopoleurs.

À notre avis, la vraie concurrence sur ce marché sera de nature plutôt technologique, et ne viendra pas des vertus de la déréglementation. Le progrès technologique pourrait réussir ce qu’une réglementation complexe sur la boucle locale n’a pas vraiment réussi à faire. Les régulateurs doivent se pencher sur l’émergence de la téléphonie Internet, qui signifie la fin de l’interurbain tel qu’on l’a connu jusqu’à tout récemment. La technologie WiFi, qui permet des accès à haute vitesse sans-fil à travers les États-Unis et le Canada, est une autre source de concurrence, même si cette technologie risque elle-même de devenir désuète, puisque d’autres technologies permettront de construire un réseau national.

Ainsi, la concurrence entre le sans-fil et le filaire produit de vrais résultats de marché. Par exemple, si la technologie d’accès Internet sans-fil Wi-Fi ou — de façon plus prometteuse encore — la technologie 4G devient un mode d’accès Internet à large bande très répandu, on assistera à une véritable concurrence sur ce marché. La téléphonie par Internet, rendue possible grâce à des progrès technologiques récents, entraînera peut-être aussi une autre vague de concurrence sur le marché et fera disparaître à terme la notion d’interurbain.

En somme, il est bien possible que la théorie du monopole naturel reprenne ses droits et que l’on arrive à la conclusion que la concurrence entre les technologies est la voie la plus bénéfique pour les usagers et les actionnaires des sociétés de télécommunications.

 

  1. On parle aussi de « dérégulation » des télécommunica- tions. À notre avis, « ouverture de la concurrence » est plus juste, puisque cette ouverture s’est faite grâce à une réglementation différente de ce qui existait aupa- ravant, et fort complexe.
  2. Cette théorie a été exposée dans Capitalism, Socialism and Democracy, publié en 1942.
  3. Voir : F. Hayek, Monetary Theory and the Trade Cycle, Londres : Jonathan Cape, 1933. Pour une application de la théorie à la conjoncture courante, voir : P. Woodall, « A Survey of the World Economy : The Unfinished Recession », The Economist, 28 septembre 2002.
  4. Voir : J. M. de Figueiredo, « Finding Sustainable Profitability in Electronic Commerce », Sloan Management Review, volume 41, no 4, été 2000.
  5. « Asset-Price “Bubbles” and Monetary Policy (Remarks by Governor Ben S. Bernanke of the Federal Reserve Board, before the New York Chapter of the National Association for Business Economics, New York) », New York, 15 octobre 2002.
  6. Voir, par exemple : A. J. Schwartz, « Asset Price Inflation and Monetary Policy », National Bureau of Economic Research, Working Papers, novembre 2002.
  7. Voir : Charles Freedman, « Wrap-Up Discussion, Information in Financial Asset Prices : Proceedings of a conference held by the Bank of Canada, May 1998 ».
  8. Voir, par exemple : Yvan Allaire et Mihaela Firsirotu, « Changing the Nature of Governance to Create Value », Commentary, The C.D. Howe Institute, no 189, novembre 2003.
  9. Voir : Yves Rabeau, L’industrie des télécommunications au Canada : problématique d’une industrie en évolution rapide, Montréal : Institut de recherche en politiques publiques, 1995.
  10. D. Tapscott, The Digital Economy, McGraw Hill, 1995.
  11. Voir : G. Gilder, Telecosm : How Infinite Bandwidth Will Revolutionize Our World, New York : The Free Press, 2000.
  12. Voir : le livre blanc de Nortel, 10 Gigabit Ethernet (janvier 2001), où l’on cite une prévision de IDC selon laquelle, de 269 milliards de dollars en 2000, le com- merce électronique passera à 2,6 billions (2,6 trillions, en anglais) en 2004.
  13. Voir : « Too many debts ; too few calls », The Economist, 18 septembre 2002.
  14. Voir : « Internet Traffic : The Power of WorldCom’s Puff », The Economist, 20 juillet 2002.
  15. Voir : S. Rosenbush, H. Timmons et al., « Inside the Telecom », Business Week, 5 août 2002.
  16. Voir : U.S. Communications Infrastructure at a Crossroads : Opportunities Amid the Gloom. McKinsey & Company and Goldman, Sachs & Co. 2001.
  17. Voir : P. Woodall, op. cit.
  18. Martin Fransman, Telecoms in the Internet Age. Oxford : Oxford University Press, 2002.
  19. Martin Fransman, op. cit.
  20. Voir : « Too many debts ; too few calls », The Economist, 18 septembre 2002.
  21. Voir : A.-L. Pernée et Y. Rabeau, « Growth Crisis in the Digital Economy : the Quest for Business Models », Working Paper 17-2000, Centre de recherche en ges- tion, ESG-UQAM, décembre 2000.
  22. Ainsi, entre 1998 et 2001, le nombre de câbles de fibres optiques au sol a quintuplé. De plus, le progrès en tech- nologie d’alimentation des signaux en fibres de bout en bout a multiplié par 100 la capacité de transmission de chaque conduit de fibre. Ainsi, la capacité totale de transmission a été multipliée par 500. Cependant, durant cette même période, la demande a tout juste quadruplé. Voir : A. Odlyzko, cité dans « Special Report : The Telecom Crisis », The Economist, 20 juillet 2002.
  23. Voir : « Special Report : the Telecom Crisis », The Economist, 20 juillet 2002.
  24. « Trillion », en anglais, se traduit par « billion » en français. Voir : S. Rosenbush et al., op. cit.
  25. Martin Fransman, op. cit.
  26. Voir : « The Great Telecom Crash », The Economist, 9 septembre 2002.
  27. De 1998 à 2002, le prix d’une connexion haute vitesse entre Londres et New York a fléchi de 95 p. 100. Voir : S. Rosenbush, R. Crockett et C. Hadad, « The Telecom Depression : when will it end ? », Business Week, 7 octobre 2002.
  28. Le site Internet de la société britannique Bandex a été parmi les premiers à offrir un lieu de rencontre de l’offre et de la demande de bande passante à l’échelle interna- tionale. Cela a contribué à accélérer le phénomène d’ar- bitrage sur la bande passante, qui tend à uniformiser le prix à l’échelle mondiale.
  29. Voir : « The Great Telecom Crash », The Economist, 18 juillet 2002.
  30. Voir : W. D. Nordhaus, « Productivity Growth and the New Economy », Brookings Paper on Economic Activity, vol. 2, 2002, p. 211 à 244.
  31. Voir : M. Mandel, « The Painful Truth about Profits », Business Week, 4 novembre 2002. Aussi : M. Arndt, « Prices Just Keep Plunging », Business Week, 21 octobre 2002.
  32. Voir : L.-A. Lefebvre et Y. Rabeau, « The Impacts of Information Technology on Corporate Structures and Strategies : A Literature Survey and Emerging Models », Industry Canada, Catalogue C. 28-1/114-1994E, été 1994, 55 pages.
  33. Voir : M. Porter, « Strategy and the Internet », Harvard Business Review, vol. 79, no 3, mars 2001.
  34. Les sociétés de téléphonie en monopole étaient souvent dominées par la « culture d’ingénieur », qui consiste à choisir les produits dont le marché aura besoin en fonc- tion de ses propriétés techniques. Voir : P. J. Kampas, « Shifting Cultural Gears in Technology-Driven Industries », MIT Sloan Management Review, hiver 2003.
  35. Voir : Y. Rabeau, « L’origine du mirage et les voies à venir », dans « La convergence : des promesses folles aux espoirs déçus », Centre d’études sur les médias, Université Laval, juillet 2003.
  36. Voir : S. Crock, « Old Economy or New, Vertical Empire don’t Work », Business Week, 12 juin 2000.
  37. Voir : M. M. Bekier, A. J. Ogardus et T. Oldham, « Why Mergers Fail », McKinsey Quarterly, no 4, 2001, p. 6 à 10.
  38. Voir : John Hagel III et Jeffrey F. Rayport, « The New Infomediaries », The McKinsey Quarterly, no 4, 1997, p. 55 à 70.
  39. Voir : K. Werbach, « Syndication : The Emerging Business Model in the Internet Era », Harvard Business Review, mai-juin 2000.
  40. Dans le cas de Téléglobe, BCE aurait pu conclure aussi une entente de partenariat avec cette entreprise dans laquelle elle avait déjà un intérêt financier. Mais on a aussi rejeté cette approche en disant que BCE redoutait qu’une autre entreprise se porte acquéreur de Téléglobe.
  41. Il y a toujours ces exceptions qui confirment la règle. La société Telefonica, une entreprise de télécommuni- cations implantée dans les pays de langues espagnole et portugaise, a adopté le modèle de convergence et a réussi, en changeant en profondeur la culture de l’en- treprise et en mettant les besoins des clients au centre de ses préoccupations, à obtenir un succès avec ce modèle d’affaires. Voir : Thierry Outrebon, rapport du congrès « Telecoms : quels business models pour l’avenir ? » mars 2001, France.
  42. Voir : F. Bertrand, Y. Rabeau et D. Waldron, « Canadian Telecommunications Regulation and Competition : Lessons for Europe », Working Paper 31-2001, Centre de recherche en gestion, UQAM, novembre 2001. Site CRG/UQAM, 29 pages.
  43. On estime qu’il y a eu entre 200 et 250 firmes de revente d’interurbain qui ont offert des services sur le marché canadien depuis l’ouverture de la concurrence. Voir : J. G. Rens, « Réflexions sur la décennie télécom : 1992-2002 », document de travail, non publié, 2003.
  44. En 2002, la part de marché de ces concurrents approchait le tiers. Voir Industrie Canada, « Service de télécommunication au Canada : un aperçu de l’indus- trie », figure 2-10. Cette outil de référence est mis à jour régulièrement et disponible à : http://strategis.ic.gc.ca/epic/internet/ insmt-gst.nsf/fr/sf06050f.html
  45. Voir : D. Ebner, « AT&T Canada Executives Tout Revamped Business », The Globe and Mail, 20 mars 2003, p. B4.
  46. Voir : S. Rosenbush, R. Crockett et C. Hadad, « The Telecom Depression : when will it end ? » Business Week, 7 octobre 2002.
  47. À titre d’exemple, un fonds américain a acheté Téléglobe pour quelque 200 millions de dollars.
  48. Voir : « The Great Telecoms Crash », The Economist, 18 juillet 2002.
  49. Ibid.
  50. Voir : S. Rosenbush, R. Crockett et C. Hadad, « Telecom : at last the Depression is Lifting », Business Week, 14 janvier 2003.
  51. Voir : S. Rosenbush, « Verizon : A Leader among the Bells ? », Business Week, 21 octobre 2002.
  52. Voir : F. Bertrand, Y. Rabeau et D. Waldron, op. cit.
  53. C’est l’approche des « forward looking costs », par opposition aux coûts historiques ou « embedded costs ». Voir : W. J. Baumol et G. Sidak, Toward Competition in Local Telephony. Cambridge et Washington, D.C. : MIT Press et AEI Press, 1994.
  54. Il faut voir qu’un des arguments majeurs utilisés par les RBOC devant les tribunaux et qui leur ont permis de rendre inopérante la décision de la FCC était pure- ment constitutionnel (la FCC n’aurait pas le pouvoir d’imposer une telle décision, qui relèverait plutôt de la juridiction des États).
  55. Une façon de présenter la justification de la récupéra- tion des coûts historiques suggérée par un des lecteurs serait de considérer que les ex-titulaires de monopole ont encouru des coûts et des risques pour construire leur réseau et que donc, comme cela se fait dans l’in- dustrie pharmaceutique, ils devraient bénéficier pour un certain temps d’une forme de protection pour récupérer les coûts du réseau. Dans les deux cas, on est en présence de coûts marginaux faibles : mettre un client de plus sur le réseau comporte un coût très faible (comme le coût de reproduction d’une molécule, le générique). Ce rapprochement pose toutefois des dif- ficultés : les ex-titulaires de monopole, en faisant leurs investissements, ne prenaient pas de risque important puisqu’ils étaient justement dans une situation de monopole ; le risque pouvait venir des autres tech- nologies comme le sans-fil. Mais ce risque est venu plus tard, avec le boom récent du sans-fil numérique alors que les entreprises avaient déjà récupéré une par- tie importante de leurs coûts.
  56. La question des accès et des coûts d’interconnexion est technique et difficile à traiter en raison des diverses questions que nous venons de décrire, comme le résume I. Vogelsang dans « Price Regulation of Access to Telecommunications Networks », Journal of Economic Literature, vol. XLI, no 3, septembre 2003.
  57. Voir : D. Ebner, « CRTC Phone Rate Ruling Upheld », The Globe and Mail, 27 mars 2003, p. B5.
  58. Rappelons que AT&T a perdu son monopole sur le marché de l’interurbain en 1984 et que les États-Unis avaient presque une décennie d’avance sur le Canada en matière de concurrence.
  59. Voir : D. Ebner, « Battle looms between big telcos, CRTC », The Globe and Mail, 8 avril 2003, p. B8.
  60. Ce sont les changements technologiques qui ont sou- vent été la voie d’entrée de la concurrence dans les services réglementés comme les télécommunications. Voir : A. E. Kahn, « Lessons from Deregulation : Telecommunications and Airlines after the Crunch », AEI-Brookings Joint Center for Regulatory Studies, Washington, D.C., 2004.
  61. Voir : R.D. Stone « The Interstate Commerce Commission and the Railroad Industry : A History of Regulation Policy », Praeger Publishers, 1991.
  62. Voir S. Rosenbush, H. Timmons et alia, « Inside the Telecom », Business Week, August 5th, 2002.
  63. Les villes et les commissions scolaires au Canada ont déployé des réseaux de fibres optiques dans un mode de copropriété afin justement d’obtenir des économies de réseau et réduire leurs coûts de télécommunications. Voir : A. K. Bjerring et B. Saint-Arnaud, « Est-ce que le Canada peut assumer un rôle de chef de file mondial lors de la prochaine révolution Internet », Canarie, 2002.
  64. A. K. Bjerring et B. Saint-Arnaud, op. cit.
  65. Voir : U.S. Communications Infrastructure at a Crossroads : Opportunities Amid the Gloom. McKinsey & Company and Goldman, Sachs & Co. 2001
  66. On branche son téléphone dans une boîte appelée ATA (« analogue telephone adaptor ») qui se branche à son tour à la connexion Internet.
  67. T. Standage, « Beyond the Bubble : A survey of Telecom », The Economist, October 11th, 2003. Voir aussi : A. E. Kahn, op. cit., p. 22.
  68. Voir : « Move over 3G : here comes 4G »,The Economist, May 29th, 2003.

Annexe 1

La stratégie de BCE

  • Acquisition des compétences : Bell disposait d’un réseau qu’elle a complété par une dorsale haute vitesse avec la filiale Bell Nexia. Elle a ajouté un portail Internet avec une participation financière de Lycos. L’alliance avec SBC Communications avait pour but d’obtenir des liquidités additionnelles pour faire des acquisitions et pour offrir des pro- duits conçus par le groupe américain. Ensuite, elle a acheté une entreprise de service de commerce électronique (Emergis) et un intégrateur de système (CGI). Finalement, BCE a confirmé sa mission dans les services de transport de l’information en se départant de sa filiale Nortel au moment où cette dernière avait une valeur boursière importante.
  • Acquisition de contenu : Avec tous ces actifs de base, on est passé à l’achat de « contenu » avec l’acquisition de CTV, du Globe and Mail, de TQS et du centre Bell (sport).
  • Autres compétences : De plus, Bell était présente dans la téléphonie mobile (Bell Mobilité) et dans la câblodistribution par satellite (Bell ExpressVu). Finalement, cette stratégie a été complétée par l’acquisition de Téléglobe, qui donnait à Bell un réseau mondial ayant une capacité importante dans le transport Internet.