Les géographes, s'ils ne tiennent pas compte des capacités individuelles de mobilité, accordent en revanche une grande importance aux infrastructures de mise en relation des lieux (moyens de transport), à leur efficacité (mesurée en temps de parcours moyen) et éventuellement à leur coût (marginal ou généralisé). Pour certains auteurs il est aberrant de parler d'accessibilité spatiale pour des mesures utilisant la distance euclidienne comme facteur d'éloignement entre les lieux, et le terme devrait être réservé à l'emploi de métriques faisant référence au temps, à la fréquence ou au coût des moyens de transport, l'idéal étant une approche multimodale en terme de coût généralisé.
Les géographes sont enfin très sensible à la transmission cartographique des résultats des mesures d'accessibilité et ils ont développé toute une batterie de solutions originales et innovantes pour visualiser la position relative des lieux (isochrones, anamorphoses, pseudo-relief, etc.).
Notons enfin que les géographes privilégient en matière d'accessibilité les approches quantitatives (résumé de l'accessibilité de chaque lieu à l'aide d'un indicateur unique) au détriment d'approches plus qualitatives s'intéressant à la forme des courbes locales d'accessibilité et non pas à un résumé numérique de celles-ci.
L'établissement d'une représentation continue de l'accessibilité sous la forme d'isolignes suppose que l'on puisse affecter à tout point de l'espace (E) une mesure d'accessibilité à un ensemble de resources (R) pour une certaine mesure d'éloignement spatial.
1) Distance euclidienne moyenne d'un point du territoire à l'ensemble de celui-ciLa carte la plus simple d'accessibilité spatiale que l'on puisse produire est la distance euclidienne moyenne d'un point de l'espace considéré (E) à tous les points qui composent celui-ci. Il s'agit donc d'une mesure d'accessibilité interne (P=R=E) qui n'implique aucune hypothèse particulière sur le couple population-ressource et qui dépend uniquement du choix de la métrique considérée pour mesurer les distances. Dans le cas de la distance euclidienne, la seule information nécessaire est la description des points définissant le contour de l'enveloppe territoriale de l'espace étudié.
2) Distance euclidienne moyenne d'un point du territoire à l'ensemble de la population française
Tout en conservant la distance euclidienne comme mesure d'éloignement, on peut chercher à mesurer la distance euclidienne moyenne d'un point de l'espace considéré (E) à tous les habitants qui sont localisés à l'intérieur de celui-ci. Il s'agit donc d'une mesure d'accessibilité externe où les positions correspondent à l'ensemble des localisations possibles (surface) et les sites à l'ensemble des localisations occupées par les habitants (resources). L'objectif est donc cette fois-ci de déterminer en quel point du territoire français on se trouve le plus "proche" de l'ensemble de la population française en moyenne.
3) Distance routière moyenne d'un point du territoire à l'ensemble de celui-ci
Compte-tenu de la densité du réseau routier, il est possible d'assigner une distance routière à tout couple de points du territoire français au prix d'une approximation peu gênante (calcul des distances dans le cadre de mailles dont le poids est définie par leur surface, puis interpolation des valeurs d'accessibilité entre les centres de mailles). On peut alors proposer une image de l'accessibilité routière définie comme le temps moyen de relation par la route d'un point du territoire français à n'importe quel autre point tiré au hasard.
4) Distance routière moyenne d'un point du territoire à l'ensemble de la population française
On peut enfin appliquer la distance routière à la mesure de l'accessibilité de tout point du territoire à l'ensemble de la population française et déterminer ainsi les points du territoire d'où l'on peut rejoindre le plus rapidement par la route l'ensemble de la population française.
5) Utilisation de la distance euclidienne comme modèle de réseau de transport homogène et isotrope et évaluation des variations spatiales de l'efficacité du réseau de transport
Bien que la distance en temps sur un réseau de transport soit a priori plus intéressante que la distance euclidienne en kilomètre pour décrire les localisations à l'intérieur du territoire français, cette dernière peut servir de norme pour mesurer l'efficacité du mode de transport et l'inégale dotation des différents points du territoire en infrastructure. La distance euclidienne est en effet un modèle parfait d'un réseau de transport homogène et isotrope de sorte que les écarts entre l'accessibilité euclidienne et l'accessibilité à l'aide d'un mode de transport peuvent s'analyser comme l'effet d'un excédent ou d'un déficit d'infrastructures permettant la liaison d'un point du territoire avec l'ensemble des autres points de celui-ci ou avec l'ensemble de la population. La seule réserve que l'on puisse émettre à l'encontre de cet indicateur est le fait que les décalages entre distance euclidienne et temps de transport à l'aide d'un mode de transport sont parfois la conséquence non pas de l'absence mais de l'impossibilité d'établir une infrastructure directe, par exemple dans le cas où le trajet euclidien entraîne la traversée d'une étendue maritime. Ce défaut pourrait toutefois être levé si l'on avait substitué à la distance euclidienne l'itinéraire terrestre le plus court en kilomètres.
On pourrait poursuivre l'analyse en étudiant d'autres modes de transport (fer, avion) ou en calculant des mesures d'accessibilité multimodales. Mais il faut alors introduire des hypothèses plus complexes sur la concurrence ou la complémentarité des différents modes de transport et sur les temps ou les coûts d'interconnexion lorsque l'on passe d'un mode à un autre (Cattan N., Grasland C., 1998).
En se limitant à l'analyse d'un texte de J.F. Thisse (1994) illustré de quelques exemples, nous allons montrer l'intérêt d'une réflexion conceptuelle préalable à toute recherche d'une ou plusieurs localisations optimales.
1) Egalité, efficacité ou équité ?
Dans cet exemple très simple, on considère une commune où la répartition est répartie dans trois villages (1, 2, 3) comportant le même nombre d'enfants en âge d'aller à l'école. Chaque village étant très jaloux des autres il faut choisir une localisation pour l'école qui soit justifiée à la fois par des conditions de justice (ne défavoriser les enfants d'aucune commune) et d'efficacité (réduire au maximum le trajet de l'ensemble des enfants).
Dans l'exemple présenté ci-dessus, la localisation la plus égalitaire consiste à localiser l'école au point A qui est équidistant de tous les villages. Tous les enfants parcoureront exactement la même distance pour se rendre à l'école. La solution parfaitement égalitaire n'est cependant possible que lorsqu'il existe trois sites. Dans le cas de deux sites, il existe une infinité de solution satisfaisant le critère (droite d'équidistance) et dans le cas de 4 sites ou plus, il n'existe de solution égalitaire que si les points appartiennent à un même cercle. Si ces conditions ne sont pas vérifiées, on peut définir la solution la plus égalitaire comme étant celle qui minimise les écarts entre les distances parcourues, c'est à dire comme une minimisation de la variance (ou tout autre critère de dispersion) des distances.
Mais on peut objecter que cette solution juste est également peu efficace puisqu'elle impose de long trajets à l'ensemble des enfants. La localisation la plus efficace, c'est-à-dire celle qui minimise la moyenne des distances des enfants consisterait au contraire à localiser l'école au point B. Mais elle entraînerait un accroissement non négligeable des distances parcourues par les enfants du village 1. On pourrait éventuellemment substituer à la moyenne tout autre valeur centrale résumant l'ensemble des distances parcourues par les enfants (mode, médiane, quantiles).
Enfin, la localisation la plus équitable au sens de J. Rawls, c'est-à-dire celle qui minimise la distance maximale parcourue par un enfant (critère maximin). Elle correspond à l'installation de l'école au point C qui correspond à l'intersection de cercles de diamètre minimal centrés sur les points 1, 2 et 3.
Il est bien évident que d'autres solutions optimales pourraient être déterminées, par exemple en construisant une fonction d'utilité qui soit une combinaison pondérée de tout ou partie des critères précédents et en cherchant à la maximiser. Et l'on peut également dans ce cas inverser le modèle et déterminer pour une localisation connue quel est le poids qui a été accordé à chacun des critères (égalité, équité, efficacité) dans le choix d'un site donné.
En tout état de cause, le rôle de l'analyste spatial n'est
pas de trancher le débat essentiellement politique et économique
qui doit guider la sélection des critères, mais simplement
de montrer quelle est la traduction spatiale de tel ou tel choix de critères
et de pondérations sur l'emplacement du site, c'est-à-dire,
de faire prendre conscience aux décideurs politiques de la signification
et des conséquences de leur action (Weber M., Le savant et le politique).
2) Problèmes d'optimisation sous contrainte
On pourrait également ajouter que les trois solutions précédentes
(qui aboutissent à localiser l'école en rase campagne) sont
peu rationelles et qu'il vaudrait somme toute mieux localiser l'école
dans l'un des trois villages. Il s'agit alors d'un problème d'optimisation
sous contrainte (la solution est l'un des trois villages) et l'on peut
trancher en calculant pour chaque village les valeurs correspondant aux
trois critères précédents puis en opérant une
pondération des critères.
Critère |
|
|
|
Egalité ecart-type(d) |
|
|
|
Efficacité moy(d) |
|
|
|
Justice
max(d) |
|
|
|
Dans le cas présent, aucune pondération n'est nécéssaire puisqu'il apparaît que, quel que soit le critère retenu (égalité, efficacité, équité), c'est le village 2 qui correspond à la solution optimale. Sauf à faire preuve de mauvaise foi ou à introduire de nouveaux critères dans l'analyse, aucune justification ne peut être proposée pour une localisation dans les autres villages.
La situation est cependant souvent plus complexe dans les problèmes de ce type et il peut arriver que chacun des sites possèdent des avantages spécifiques sur l'un ou l'autre des critères d'accessibilité. Le débat doit alors porter sur l'importance à accorder à chacun des critères. Un exemple simple mais démonstratif est fourni par l'article suivant :
C. Helle et S. Passegué (1997), "Quelle localisation optimale pour une nouvelle médiathèque ? L'exemple du réseau de lecture publique dans la Drôme", Espace Géograhique, 26, 4, pp. 367-374
Bien que s'appuyant sur une technologie sophistiquée (emploi d'un SIG-raster pour calculer les accessibilités routières) cet article montre (sans le vouloir) qu'en fin de compte le critère le plus déterminant dans le choix du site optimal est la délimitation qui est faite de la zone de desserte potentielle en début d'analyse et qui avantage très nettement l'une des trois villes candidates. Une approche plus globale, mais qui n'est abordée qu'en fin d'article consisterait à prendre en compte l'ensemble de l'offre et de la demande de lecture sur le département et à examiner, à enveloppe budgétaire fixe, la solution qui augmente le plus l'accessibilité globale de tous les habitants du département à un centre de lecture.
3) Problèmes de localisations optimales multiples
Les problèmes de localisation optimale fondés sur la recherche d'un site unique correspondent en fait à un cas très particulier d'une catégorie beaucoup plus générale de problèmes de localisation optimale visant à localiser plusieurs sites, soit dans un espace vierge, soit dans un espace déjà occupé par des sites que l'on se propose de réorganiser pour optimiser l'accessibilité de la population aux ressources.
Les approches qui sont le plus utilisés sont dérivées de l'économétrie et se fondent sur la recherche de la configuration optimisant une fonction d'utilité globale sous différentes contraintes.
L'un des modèles les plus connus est celui de la p-médiane qui vise à déterminer la localisation optimale d'un nombre fixé de site ayant vocation à desservir une population dont la localisation est connue. La résolution des problèmes de p-médiane est généralement délicate et doit faire appel à des algorithmes puissant car la détermination de l'optimum global ne peut être obtenue par une simple succession d'itérations définissant successivement le site 1, le site 2 ... etc.
Exercice :
Lorsque l'on examine l'historique de la réduction des distances
moyennes en fonction du nombre d'école, on constate que le saut
le plus important correspond au passage de 2 à 3 écoles alors
que l'effet de l'ajout d'une deuxième école est négligeable.
Si la commune décide de construire successivement plusieurs écoles,
elle a donc intérêt à planifier leurs localisations
en fonction de l'objectif correspondant à l'optimum sur 3 localisations,
c'est-à-dire à les implanter successivement en 80,40 puis
10,40 et enfin 60,40.
Un exemple d'application à des données réelles
est fourni par la carte des localisations optimales de 1 à 8 centres
en Suède : Tornquist G., Nordbeck S., Rystedt B. & Gould P.,
1971, "Multiple location analysis", Lund Studies in Geography, C12
(cité par P.J. Taylor 1977, p. 329). Il existe une littérature
très abondante et relativement ancienne sur ce type de modèles
de recherche opérationnels connus sous le nom de "location-allocation
models" dans la littérature anglo-saxonne. Pour une première
initiation, on pourra se reporter au texte très clair de P.J.
Taylor (1977), Quantitative methods in Geography, Waveland Press Inc,
pp. 305-335. Dans le monde francophone, on signalera les travaux menés
par les géographes et les économistes de l'Université
Catholique de Louvain-la-Neuve, notamment H. Béguin et I. Thomas.
Si la géographie et la sociologie ont été amenées l'une et l'autre à opérer des transferts méthodologiques en provenance des mathématiques, elles ne l'ont pas fait au même rythme et avec les mêmes objectifs, de sorte que les outils finalement implémentés dans chaque discipline ne sont pas toujours les mêmes et, lorsqu'ils sont formellement identiques, ont pu recevoir des interprétations conceptuelles différentes. Du coup, il peut s'avérer intéressant de procéder à des comparaisons des méthodes de traitement graphe utilisées dans chaque discipline afin d'examiner (1) pourquoi certains outils méthodologiques sont utilisés dans une discipline et pas dans l'autre (2) pourquoi les concepts associés à un même outil méthdoologique diffèrent d'une discipline à l'autre.
On se limitera ici à quelques exemples portant sur les mesures
d'accessibilité globale et d'accessibilité locale à
l'intérieur d'un réseau planaire, non valué et non
orienté dont on supposera qu'il décrit soit un réseau
de chemin de fer reliant des villes, soit un réseau de sociabilité
reliant des individus (Cf. figure ci-dessous).
1) Les mesures globales
On note a le nombre d'arcs, s le nombre de sommets et n le nombre de sous-graphes (composantes connexes). Dans l'exemple étudié a=15, s=10, et n=1.
Nombre de circuits et indice de connexité alpha
A ces trois indicateurs de base est associé le nombre cyclomatique c qui définit le nombre maximum de circuits qui peuvent apparaître dans un graphe de ce type (qu'il soit planaire ou non)
c = a-n+s
Ce nombre cyclomatique (6 dans notre exemple) est toutefois fortement corrélé avec la taille du graphe (nombre de sommets) et sa valeur comparative est faible. On lui préférera donc l'indice comparatif de connexité Calpha qui est le rapport entre le nombre maximum de circuits possibles dans le graphe observé et le nombre maximum de circuits possibles avec a sommets. Il faut alors distinguer le cas général applicable à un graphe quelconque (réseaux sociaux) et le cas particulier d'un graphe planaire :
Calpha = c / [(a(a-1)/2)-(a-1)]
graphe quelconque
Calpha = c / (2a-5)
graphe planaire
Dans notre exemple, l'indice de connexité Calpha vaudra donc 6/15=0.40 s'il s'agit d'un réseau ferroviaire (graphe planaire) contre seulement 6/36=0.17 s'il s'agit d'un réseau social (graphe non planaire).
Densité du réseau et indices de connexité beta et gamma
Un indicateur plus simple que le nombre de circuits est le simple rapport entre le nombre d'arcs et le nombre de sommets qui mesure la densité du réseau de relation (nombre moyen de connexion) et définit l'indice de connexité Cbeta :
Bien qu'il permette en théorie la comparaison entre graphes de tailles différentes, cet indice est imparfait dans la mesure où il n'est pas borné entre zéro et un et où le nombre maximum d'arêtes dépend de la structure planaire ou non planaire du graphe. On lui préfère donc l'indice de densité relative de connexion Cgamma qui est le rapport entre le nombre d'arcs observées et le nombre maximum d'arcs possibles en fonction du type du graphe considéré (planaire ou non) :
Cgamma = s / [a(a-1)/2]
graphe non planaire
Cgamma = s / [3(a-2)]
graphe planaire
Dans notre exemple l'indice de densité de relation Cgamma
vaudra donc 15/24=0.625 dans le cas d'un réseau de transport (planaire)
contre seulement 15/45=0.333 dans le cas d'un réseau social (non
planaire).
Comparaison de l'emploi des indices globaux en géographie et en sociologie
On remarquera :
1. Que le calcul mathématique des indices doit s'adapter aux propritées concrètes des réseaux considérées (planaire ou non planaires)
2. Que la signification prêtée aux indices dans chaque discipline dépend de l'interprétation théorique et empirique qui sera prêtée aux grandeurs mesurées (nombre de circuits, nombre moyens de relations).
Freeman L., 1979, "Centrality in social networks. Conceptual clarification", Social networks, 1, pp. 215-239.
Et nous examinerons dans quelle mesure ces indices existent et/ou sont
transposable à des problématiques géographiques.
La centralité de degré
Simple et intuitive, la centralité de degré se définit
simplement comme le nombre de connexions directes d'un sommet avec
d'autres sommets. Dans la terminologie utilisée au cours de ce travail,
on pourrait dire qu'il s'agit d'une mesure de potentiel associé
au seuil de distance topologique 1, c'est-à-dire le nombre d'opportunités
directes de relation. Dans l'exemple de référence étudié,
on voit que c'est le sommet n°5 qui possède de ce point de vue
la plus forte centralité (6 connexions directes) suivi par le sommet
n°4 (4 connexions). Les sommets les plus périphériques
sont les n°1 et 2 qui disposent d'une seule connexion directe.
n° | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
CD | 1 | 1 | 3 | 4 | 6 | 3 | 3 | 3 | 3 | 3 |
En sociologie des réseaux, cet indice correspond si l'on veut à la taille du carnet d'adresse d'un individu (nombre de personnes qu'il peut contacter) et en géographie à la fonction de carrefour de certains points de l'espace où se croisent un grand nombre de directions.
Mais dans les deux cas, le nombre de connexions directes ne préjuge pas obligatoirement de l'intérêt d'une position car le carrefour peut-être situé dans une position très excentrée par rapport à l'ensemble du réseau (e.g. à Paris, les places de l'étoile et de la Nation ont une forte centralité de degré en raison du grand nombre de rues et d'avenue qui s'y coupent, mais elles sont moins centrales que la place du Châtelet qui dispose pourtant d'un nombre de connexions directes plus limité).
Différentes solutions mathématiques permettent de normaliser cet indice de centralité de degré lorsque l'on veut comparer plusieurs graphes de taille différente (il est en effet évident que la centralité de degré de chaque individu dépend, au moins en partie du nombre total d'individus). Onpeut également calculer une mesure globale (Cf. supra) résumant la position de l'ensemble des individus (Cf. Degenne & Forsé, 1994, p. 156).
La centralité de proximité
La centralité de proximité proposée par les sociologues n'est rien d'autre que la mesure d'accessibilité correspondant à la distance moyenne entre les individus lorsque la distance correspond au plus court chemin topologique (nombre minimum d'arcs à traverser pour relier un individu à un autre) que Degenne & Forsé appellent distance "topographique" mais que nous préférons appeler distance "topologique" dans la mesure où, en géographie tout au moins, la notion de topographie évoque plutôt le relief et les distances physiques à la surface de la Terre.
Le calcul de cette centralité de proximité ne pose aucune difficulté dès lors que l'on a établi la matrice des distance, ce qui peut se faire soit à la main (si la graphe est de petite taille), soit par un algorithme simple proposé par Lebart et fondé sur l'élévation de la matrice de contiguïté d'ordre 1 à des puissances successives. Le problème de calcul des plus court chemin est un peu plus compliqué dans le cas des graphes valués mais les SIG actuels offrent tous des fonctionnalités performantes pour ce type de calcul.
Dans notre exemple, la matrice des distances topologiques (de plus court
chemin) s'atablit comme suit :
d |
1
|
2
|
3
|
4
|
5
|
6
|
7
|
8
|
9
|
10
|
tot |
1
|
-
|
2
|
1
|
2
|
3
|
3
|
4
|
4
|
4
|
3
|
26
|
2
|
2
|
-
|
1
|
2
|
3
|
3
|
4
|
4
|
4
|
3
|
26
|
3
|
1
|
1
|
-
|
1
|
2
|
2
|
3
|
3
|
3
|
2
|
18
|
4
|
2
|
2
|
1
|
-
|
1
|
1
|
2
|
2
|
2
|
1
|
14
|
5
|
3
|
3
|
2
|
1
|
-
|
1
|
1
|
1
|
1
|
1
|
14
|
6
|
3
|
3
|
2
|
1
|
1
|
-
|
1
|
2
|
2
|
2
|
17
|
7
|
4
|
4
|
3
|
2
|
1
|
1
|
-
|
1
|
2
|
2
|
20
|
8
|
4
|
4
|
3
|
2
|
1
|
2
|
1
|
-
|
1
|
2
|
20
|
9
|
4
|
4
|
3
|
2
|
1
|
2
|
2
|
1
|
-
|
1
|
20
|
10
|
3
|
3
|
2
|
1
|
1
|
2
|
2
|
2
|
1
|
-
|
17
|
CP |
2.9
|
2.9
|
2.0
|
1.6
|
1.6
|
1.9
|
2.2
|
2.2
|
2.2
|
1.9
|
2.1
|
La distance topologique moyenne entre deux sommets différents est de 192/90=2.1 ce qui permet de fixer la limite entre des sommets "centraux" (n° 4, 5, 6, 10), des sommets en position moyenne (n° 3, 6, 7, 8) et des sommets "périphériques" (n° 1 et 2). On remarquera que le sommet n°4 fait désormais jeu égal avec le sommet n°5 en terme de centralité de proximité alors que sa centralité de degré était précédemment plus faible.
Comme pour la centralité de degré, nous ne détaillons pas les transformations permettant de standardiser les indices de centralité de proximité localement ou globalement, renvoyant à nouveau à l'ouvrage de Degenne et Forsé (1994) pp. 156-158.
D'un point de vue conceptuel, on notera que les interprétations données de la centralité de proximité sont très voisines en géographie et en sociologie, si ce n'est que cette dernière insiste davantage sur le pouvoir que procure une position centrale. Ce pouvoir est cependant d'autant plus important que le point central constitue un passage obligé pour l'établissement de relations et peut, de ce fait, établir un contrôle sur les relations entre les autres membres du réseau. Or, ce pouvoir de contrôle n'est pas nécessairement lié directement à la disponibilité d'une position centrale ou d'un grand nombre de connexions. Les individus qui jouent le rôle de "pont" entre deux composantes fortement connexes sont de ce point de vue beaucoup plus puissants, mais si leur position est moins centrale car ils constituent des points de passage obligé entre les groupes. Ceci conduit à la troisième définition de la centralité proposée par Freeman et fondée sur le concept d'intermédiarité.
La centralité d'intermédiarité
Bien qu'elle puisse être définie de façons assez différentes, la centralité d'intermédiarité repose sur une notion intuitive simple : la capacité d'un individu à contrôler (faciliter, empêcher, gêner) les relations entre d'autres individus. Dans le cadre de cette présentation, on s'éloignera quelque peu de la solution proposée par Freeman (1979) en ne considérant que les cas où un individu consitue un passage obligé entre deux autres et en définissant la centralité d'intermédiarité comme le nombre de fois où un individu constitue un passage obligé entre deux autres (on élimine de ce fait tous les cas où il se trouve sur le plus court chemin mais où des itinéraires alternatifs sont possibles). On rapporte ensuite ce nombre de passages obligés par un individu k au nombre total de relation qui peuvent se constituer entre deux individus (i,j) différentes de l'individu k :
CI(k) = Nij (k) / [(a-1)(a-2)/2]
Appliqué à notre exemple 1de référence, cette définition de l'intermédiarité aboutit à la définition des points de passage obligée suivants :
de {1} vers {2} : passage obligé par 3
de {1,2} vers {4,...,10} passage obligé par 3
de {1,2,3} vers {5,...,10} passage obligé par 4
Au total, le sommet n° 3 est un point de passage obligé dans 15 cas et le sommet n° 4 est un point de passage obligé dans 15 cas également ce qui leur donne des indice d'intermédiarité égaux valant 15/36=0.42. Tous les autres sommets ont un indice d'intermédiarité nulle puisqu'ils ne constituent jamais un passage obligé entre deux autres individus.
D'un point de vue sociologique, les individus n°3 et 4 disposent
donc d'un pouvoir social important lié à leur capacité
à contrôler chacun 42% des relations entre les autres individus
du réseau social considéré.
D'un point de vue géographique (application à
un réseau de transport) on dira plutôt que les villes n°3
et 4 sont des points stratégiques dont la destruction entraînerait
une déconnexion d'une grande partie du réseau. L'existence
de tels points stratégique contribue à fragiliser l'ensemble
du réseau (en cas de guerre ou d'accident) et l'opérateur
de transport ou de défense aurait tout intérêt à
créer de nouvelles connexions pour réduire cette fragilité.
Ainsi, si l'on crée une connexion nouvelle entre les points n°
1 et 6; la centralité d'intermédiarité du point n°
4 devient nulle et celle du point n° 3 n'est plus que de 8/36 soit
25% des relations. L'ajout d'une seconde connexion entre 1 et 2 ou entre
2 et 10 donnerait du finalement à tous les points du réseau
une valeur d'intermédiarité obligée qui serait nulle.
Comme dans les cas précédents, on pourrait raffiner de
différentes manières les indices d'intermédiarité
(Cf; Degenne & Forsé pp. 158-161) mais ce n'est pas l'objet
de ce travail qui visait surtout à montrer l'intérêt
d'un échange de concepts et de méthodes entre les différentes
branches des sciences sociales.