Dernière mise à jour : le 14 juin 2013

    Limites et discontinuités sont au cœur de l’analyse spatiale (Brunet, 1968). Dans Le Robert (1973), la première définition d’une limite est une « ligne qui sépare deux terrains ou territoires contigus (bord, confin, frontière, lisière) ». Le dictionnaire poursuit la définition en précisant qu’il s’agit à la fois d’un début et d’une fin. Cette première partie de la définition décrit la limite comme quelque chose de ponctuel : « point que ne peut ou ne doit pas dépasser une activité, une influence (barrière, borne, extrémité) ». La limite est donc perçue comme un point que l’on ne peut franchir, un point contre lequel on butte. Cependant, la limite « sépare autant qu’elle unit » (Martin, 2003c, p. 129). Pour le géographe, « la limite est ce qui permet de circonscrire un ensemble spatial donné. […] La limite apparaît comme la périphérie d’un ensemble cohérent, construit à partir d’un centre, d’un pouvoir et de l’appropriation identitaire de cet espace » (Renard, 2002, p. 40). Les limites peuvent alors se classer en deux catégories : les limites progressives et les limites linéaires. « En géographie, l’absence de limite serait un espace isotrope et homogène ; c’est-à-dire en géomorphologie une plaine particulièrement plane et infinie dont l’érosion se ferait par des départs également distribués de matériel » (Martin, 2003c, p. 128). Par ailleurs, la limite, si elle s’accentue, devient une discontinuité, c’est-à-dire, en géographie, une unité spatiale particulière qui est, soit organisée, soit désorganisée. Philippe Martin propose deux catégories de discontinuités : les discontinuités topologiques entre deux états quasiment statiques et les discontinuités correspondant à des lignes ou à des surfaces entre deux entités en mouvement plus ou moins rapide. Elle semble alors plus unir qu’elle ne sépare (Martin, 2003c, p. 128). Il est important de noter que les limites peuvent émerger sans aucune action anthropique. Pourquoi et comment les limites émergent-elles ? Comment se cristallisent-elles ? Ces questions posent à nouveau le problème de la morphogenèse.

    La cristallisation se réalise essentiellement grâce à la naissance d’une cohérence. D’après Le Robert, une cohérence est une « union étroite des divers éléments d’un corps ». La cohérence est liée donc à la notion d’existence. Celle d’un système fait alors émerger ses limites tangibles qui participe à la définition d’une forme. Celles-ci matérialisent le degré de fermeture. Il existe un « dedans » et un « dehors », le « dehors » étant ce que l’on nomme l’environnement. à partir de là, ce « dehors » structure le « dedans ». Autrement dit, dans le « dedans » émerge une identité (Gay, 2004). Par ailleurs, l’émergence des limites est aussi liée à la notion d’échelle, car toute limite possède un niveau privilégié dans lequel il est possible de la percevoir. En effet, la limite « permet de circonscrire des objets d’étude à des échelles spécifiques dont l’articulation peut conduire à un discours explicatif, voire démonstratif » (Martin, 2003c, p. 129). Une échelle n - 1 est incluse dans une échelle n, par exemple. Cet emboîtement contribue à faire émerger une limite, donc une forme. Encore une fois, l’échelle et la taille sont au cœur de la réflexion, sans elles nul problème ne peut être défini. Aujourd’hui, on possède un outil qui permet de décrire l’emboîtement des échelles : c’est la géométrie fractale. « La mesure d’une chose dépend de l’outil de mesure que l’on utilise. Le mathématicien Benoît Mandelbrot a eu l’intuition de transformer « outil » en « échelle » » (Baudelle et Regnauld, 2004, p. 101).

    L’analyse spatiale permet de définir méthodologiquement une limite ou une discontinuité. Cette approche se caractérise par « l’ensemble des méthodes et des techniques qui décrivent la manière dont un ou plusieurs phénomènes s’inscrivent dans l’espace - qu’il s’agisse de leur distribution, de leur configuration ou de leur covariation - afin de déceler et de quantifier les interrelations qui sous-tendent les organisations spatiales » (Voiron-Canaccio, 1995, p. 14). Au cours de son évolution, elle a privilégié trois approches. Tout d’abord, l’approche classique de Roger Brunet consiste à rapprocher l’explication des discontinuités spatiales de la théorie des systèmes. Ensuite, cette approche a évolué vers des modélisations de différentes natures (graphique, discursif, mathématique). Toutefois, celle-ci semble aujourd’hui arriver à une impasse (Martin, 1997 ; 2003a ; 2003b ; 2006a ; 2006b ; 2006c ; 2006d ; 2006e ; 2008a ; 2008b ; 2008c). Aussi, une approche plus globale semble percer aujourd’hui, même si cela se fait de manière insconsciente : l’approche relativiste d’échelle.

3.1. L'approche classique : la théorie des discontinuités de Roger Brunet

    L’approche que l’on appellera classique est celle qui se fonde sur le concept de discontinuité. Roger Brunet (1968) fut le premier géographe français à tenter de définir clairement ce concept en géographie.

3.1.1. Le concept de discontinuité en géographie

    Une discontinuité est une rupture apparaissant dans l’espace ou dans le temps. Les discontinuités temporelles représentent les discontinuités les mieux connues, car il demeure plus simple d’identifier ce type de discontinuités que celles de l’espace. Toutefois, selon Roger Brunet, l’espace est riche en discontinuités de toutes sortes marquées par des interfaces, des limites et des frontières, que l’on soit en géographie humaine ou physique. Les discontinuités de l’espace peuvent être franches, brutales (une frontière, un mur…) ou progressives, ménagées (une transition, une marge, une marche, une plage).

    En première typologie, on peut prétendre qu’il existe deux types de discontinuités : les discontinuités exogènes, provoquées de l’extérieur et les discontinuités endogènes, produites par le processus lui-même, par le fonctionnement du système, sans intervention directe de l’environnement. La discontinuité endogène rétablit une forme de continuité là où l’on voit souvent une rupture inexplicable ou jugée exogène.

    En seconde typologie, on peut distinguer les discontinuités matérielles des discontinuités symboliques. Ces deux catégories reposent sur l’espace vécu et perçu par les individus.

    Roger Brunet fonde sa théorie des discontinuités sur la notion de seuil qui permet de définir des discontinuités progressives. Finalement, Roger Brunet matérialise cette idée via les chorèmes, ce qui lui permet d’affirmer que l’espace géographique comporte quatre grandes sortes de discontinuités (Brunet, 1980). La première discontinuité connue est celle qui associe les réseaux routiers, les ghettos, les quartiers, etc. Ensuite, il y a toutes celles qui résultent du jeu des principales lois de l’espace connues. De plus, il y a toutes les lignes de contact (ou interfaces) comme les franges et les bordures, etc. Enfin, il existe toutes les limites de contrées qui marquent le passage d’un système spatial à un autre.

3.1.2. Les dix-sept points de la théorie de Roger Brunet (1968)

    Roger Brunet fonde sa théorie des discontinuités sur dix-sept points.

  1. « L’évolution des phénomènes naturels et l’évolution des phénomènes sociaux [sont] produite[s] par l’interaction de divers agents au sein de complexes. Ces interactions peuvent être contradictoires ou cumulatives.

  2. La croissance graduelle de l’un des paramètres, de plusieurs d’entre eux ou d’une variable extérieure peut faire apparaître des discontinuités dans l’évolution.

  3. Ces discontinuités se marquent généralement par des seuils.

  4. Ceux-ci correspondent soit à un cisaillement, soit à un changement d’état, soit à un relais dans les mécanismes fondamentaux, parfois à deux de ces transformations.

  5. Ils sont, pour les phénomènes envisagés, soit seuils de manifestation ou d’extinction, soit seuils de divergence, de renversement, d’opposition ou de saturation provoquant plafonnement ou précipitation.

  6. Selon la rapidité avec laquelle ils sont franchis, on distingue seuils angulaires et seuils d’inflexion.

  7. Le franchissement d’un seuil résulte d’une préparation lente, apparemment continue, mais généralement faite d’une série de discontinuités à petite échelle, durant laquelle s’additionnent les tensions ou les informations.

  8. Il peut être facilité, mais non nécessairement, par l’action d’un catalyseur et par la présence d’une zone de faiblesse.

  9. Une nouvelle période d’évolution graduelle tendant à effacer les effets de la discontinuité ou à préparer une nouvelle discontinuité suit généralement le franchissement d’un seuil.

  10. Celui-ci marque ordinairement une mutation qualitative, provoquée par ces modifications quantitatives progressives.

  11. Le franchissement d’un seuil peut n’être qu’une oscillation réversible, ou bien provoquer des conséquences irréversibles, ou bien déclencher des processus de compensation.

  12. Il peut provoquer, avec quelque retard des rétroactions - généralement inférieures à l’action.    

  13. Il peut entraîner un renversement dans le sens de l’évolution ou dans la nature des phénomènes.

  14. Bien des oscillations sont dues au retard et à l’excès avec lesquels agissent les rétroactions.

  15. Beaucoup de phénomènes ne se manifestent, beaucoup d’observations ne sont valables, qu’entre deux seuils, au-delà desquels le contraire peut être vrai.

  16. Les discontinuités dans l’évolution (discontinuités dynamiques) peuvent faire apparaître des discontinuités matérielles (discontinuités statiques).

  17. La notion de discontinuité est relative ; elle dépend de l’échelle d’observation » (Brunet, 1968, p. 76-77).

    La théorie de Roger Brunet n’a pas beaucoup vieilli. Les points n°1 à 16 représentent l’application de la théorie des systèmes en géographie. Les points n°6, 7 et 8 sont plus spécifiques à l’espace géographique. En fait, l’objectif de Roger Brunet était d’étudier les discontinuités pour elles-mêmes afin d’en comprendre leur origine. Autrement dit, Roger Brunet reprend à sa manière la problématique de René Thom, à savoir comment le continu permet-il de produire l’émergence d’une discontinuité. Parmi tous ces points, seul le n°17 est original dans sa manière de l’expliquer, car il montre que Roger Brunet a parfaitement compris l’importance de la dépendance d’échelle pour les objets géographiques. Ce point correspond à la définition d’un objet fractal.

    Cependant, les objets fractals étaient mal connus à cette époque en géographie. Certes, l’article de Benoît Mandelbrot (1967) sur les côtes de la Grande-Bretagne avait été publié, mais pas encore son ouvrage de vulgarisation de 1975 dans lequel le terme « fractal » fut inventé pour désigner tout objet dépendant d’échelle. La concomitance temporelle de ces deux approches a fait que les fractales sont presque passées inaperçues en géographie. Les premiers textes en géographie sur le sujet datent de la fin des années 1980 (Dauphiné, 1987 ; Martin, 1991 ; Frankhauser, 1994 ; Dauphiné, 1995). Ces travaux fondateurs en géographie française n’ont pourtant pas pris en compte l’idée que la fractalité définissait de manière mathématique « l’effet d’échelle », et permettait de dépasser un problème insoluble dans le cadre de l’analyse spatiale classique. De nos jours, la théorie de la relativité d’échelle de Laurent Nottale (1984 ; 1989 ; 1992 ; 1993 ; 1997 ; 1998 ; 2001a ; 2001b ; 2002a ; 2002b ; 2010) qui s’appuie sur les travaux de Benoît Mandelbrot (1975 ; 1982 ; 1997), offre la possibilité de créer des outils permettant un dépassement complet du concept d’effet d’échelle tout en précisant la totalité de sa portée. La différence fondamentale, s’il fallait en trouver une, est que Laurent Nottale a défini des espaces mathématiques fractals alors que chez Benoît Mandelbrot, ce n’était que des objets. De plus, en relativité d’échelle, la fractalité apparaît comme une propriété relative au sens einsteinien du terme.

3.2. L'approche par la modélisation

    Le modèle est une « représentation formalisée et épurée du réel ou d’un système de relations » (Brunet et alii, 1992, p. 334). La géographie a connu un fort développement des modèles depuis les années 1970 grâce au développement de la théorie des systèmes. Le processus de création d’un modèle s’appelle modélisation. Il existe trois types de modélisation en géographie : la modélisation discursive, la modélisation graphique et la modélisation mathématique (Durand-Dastès, 1995). Les deux premières ont connu un réel essor, tandis que la troisième s’est très peu développée.

    La modélisation mathématique a-t-elle une place en géographie ? La réponse à cette question est très controversée. L’analyse spatiale qui pourtant utilise abondamment la description de ses entités spatiales par des équations mathématiques, reste sceptique quant à la modélisation mathématique stricto sensu (Haggett, 1965 ; 1973 ; Dauphiné, 1978 ; 1987 ; 1995 ; Voiron-Caniccio, 1995 ; Brunet, 2001). La géographie humaniste rejette purement et simplement ce type de modélisation (Lévy et Lussault, 2003 ; Volvey, 2005). L’objectif de cette partie est de montrer qu’une telle modélisation peut être envisagée en géographie, à condition d’en comprendre l’intégralité de sa mise en œuvre et d’accepter ses règles exigeantes. Il faut avant tout définir ce qu’est un modèle mathématique afin d’en dégager son processus de modélisation et ses techniques de simulation.

3.2.1. Définition d'un modèle

    Selon Daniel Durand (2002), le terme de modèle s’applique à toute représentation ou transcription abstraite d’une réalité concrète. Cette représentation doit être assez simplifiée pour être intelligible, mais suffisamment fidèle pour être utile et fiable. C’est ainsi que Peter Haggett (1973) peut souligner que le modèle est économique car il permet de transmettre ce qu’il y a de général dans l’information sous une forme très condensée. Par ailleurs, Peter Haggett définit un modèle de la manière suivante : « a simplified version of reality built in order to demonstrate certain of the properties of reality » (Haggett, 1965). Traditionnellement, on traduit cette phrase par « représentation simplifiée en vue d’une démonstration », mais Roger Brunet (2001) a raison de rappeler que la définition de Peter Haggett a été mal traduite. En effet, « demonstrate » signifie plutôt « mettre en évidence » que « démontrer ». De plus, lorsque l’on utilise la traduction officielle, on oublie un terme important : « built », c’est-à-dire « construit ». Ainsi, tout modèle, aussi réaliste soit-il, n’est qu’un « reconstruit », une reconstruction de la réalité dans le but de prévoir le devenir de cette réalité. On peut donc prétendre qu’un « modèle est une description d’un phénomène […] qui permet d’en prévoir certains aspects, par exemple son évolution dans le futur, et éventuellement d’expliquer le phénomène à partir des phénomènes plus simples ou de principes généraux » (Bertrandias, 1997, p. 109), l’explication étant donnée par une théorie.

    Pour décrire et construire un modèle, il faut un langage ad hoc. Ce langage peut se classer en trois catégories : le langage discursif, le langage graphique et le langage mathématique (Pumain et Robic, 2002 ; Durand, 2002). Le langage discursif permet de découvrir de nouvelles connaissances, mais il utilise un lexique flou et il manque de rigueur. Ainsi, il dépend fortement de la logique de son concepteur. Le langage graphique est un peu plus rigoureux. Il fait appel aux règles plus ou moins flexibles de la sémiologie. Il suppose également, pour être efficace, d’avoir été longuement pensé. Cependant, il demeure généralement propre à celui qui a mis en évidence tel ou tel élément graphique. Le langage mathématique est le plus rigoureux. Toutefois, il manque de souplesse, et quoi qu’on en dise, il dépend aussi de son concepteur, même s’il utilise un langage qui se veut vérifiable par tous. En effet, si les deux autres langages souffrent de leur manque de règles, le langage mathématique souffre de son « trop plein de règles ». Malgré tout, il reste l’unique langage d’une théorie s’organisant en loi, car « le langage mathématique […] est […] utilisé pour des mises en ordre dans la réalité empirique » (Durand-Dastès, 2001, p. 40). Cette thèse s’intéresse avant tout à ce langage, car « le livre de la Nature est écrit en langage mathématique » (Galilée, 1623), mais elle n’exclura évidemment pas les deux autres, car une science doit manipuler les trois.

    On peut nuancer le propos en remarquant que Jean-Paul et Françoise Bertrandias (1997) ignorent le langage discursif, mais ajoutent ce qu’ils appellent le langage analogique qui permet d’étudier un système en fonction d’un autre avec lequel il présente des analogies structurelles. En géographie, l’archétype est le modèle gravitaire appliqué aux populations de villes. Il permet d’expliquer la polarisation des flux humains vers les villes, c’est-à-dire pourquoi la ville « attire » les Hommes.

    On peut donc prétendre que les propriétés du modèle dépendent du langage utilisé. En géographie (Figure 4), les quatre langages coexistent, mais le langage discursif demeure celui qui est le plus utilisé. Pour conclure, on peut prétendre qu’un bon modèle peut être décodé dans les quatre langages.

Langage discursif Langage graphique Langage analogique Langage mathématique
  • Description d’un processus en géographie physique et humaine
  • Description d’un paysage
  • Description d’un objet géographique
  • Carte
  • Coupe topographique
  • Modèle numérique de terrain
  • Chorèmes
  • Automate cellulaire
  • Système multi-agent
  • Modèle gravitaire
  • Modèles macroéconomiques
  • Loi rang-taille (Forriez & Martin, 2007 ; Forriez & Martin, 2009)
  • « Lois » de Horton (Forriez et alii, 2009)
Figure 4. Synthèse des différents types de langage en géographie

3.2.1.1. Le modèle discursif

    C’est le modèle classique de la géographie dans le sens où « géographie » signifie étymologiquement « description de la terre ». Il existe deux manières de décrire le monde. On peut le décrire à la manière d’un récit le plus complet possible, mais on peut aussi décrire de manière « raisonnée » en sélectionnant les éléments remarquables observés. On dresse ainsi des typologies.

3.2.1.2. Le modèle graphique

    Il existe plusieurs sortes de modèles graphiques : la carte, les chorèmes et les simulations informatiques

  • La carte

    En géographie, c’est un modèle ancien qui est apparu avec les premières cartes. La carte reste l’outil privilégié du géographe pour représenter spatialement les phénomènes (Brunet, 2001). Elle a une fonction qui reste essentiellement un outil dressant un inventaire. En effet, la position permet d’effectuer un classement, ce qui fait que, classiquement, la carte vient à la fin de l’analyse géographique. Elle réalise une synthèse d’informations décrites auparavant dans un développement littéraire. Autrement dit, la carte est un moyen de communication très commode permettant la transmission d’une ou des informations, car l’écriture graphique est facile à comprendre et à utiliser. Trois symboles suffisent à l’élaboration d’une légende : le point, la ligne et l’aire. De plus, il faut qu’une carte réponde à une problématique, ce qui n’est plus forcément le cas avec les systèmes d’information géographique. Pour conclure, la carte ne peut faire passer qu’un nombre limité de messages, car l’œil ne peut percevoir qu’au plus 6 à 8 classes de figurés. Toutefois, la sémiologie reste très rigoureuse, ce qui fait que l’on « ne lit pas une carte aussi facilement qu’un texte » (Roger Brunet) et « ne fait pas une carte qui veut » (Roger Brunet).

  • Les chorèmes

    Dans les années 1970, Roger Brunet remarqua que les formes d’organisation sur le globe pouvaient être modélisées par des structures élémentaires qu’il appellera chorèmes en 1980. Leur but était d’essayer de doter la géographie (française) d’un langage propre. Ce fut une réussite partielle. Nombreux sont ceux qui ne reconnurent pas en ces symboles les structures élémentaires des phénomènes géographiques. Toutefois, ils restent le modèle graphique de référence, d’un point de vue didactique, en géographie (Ferras, 1993).

    Les chorèmes sont peu nombreux. Roger Brunet constitua une table de vingt-huit structures élémentaires, appelée aussi « socle chorématique » ou « alphabet du monde » (Figure 5). Elle correspond à un tableau à double entrée : en ligne, on trouve la forme des phénomènes géographiques de base dus aux sociétés ; en colonne, on trouve les configurations géométriques élémentaires (point, ligne, aire et réseau).

Chapitre-3_2.gif
Figure 5.La table des chorèmes de Roger Brunet (Brunet, 1980)

    Roger Brunet (1990, p. 118-128) résume les phénomènes géographiques en sept catégories. Le maillage correspond au processus d’appropriation de l’espace, c’est-à-dire au contrôle et à la maîtrise d’un territoire. Le quadrillage (ou treillage) correspond au réseau de communication. L’attraction permet de mesurer l’attractivité d’un lieu : il existe des lieux plus attractifs que d’autres. Le tropisme renvoie à la notion de dissymétrie. La dynamique territoriale essaye de comprendre l’organisation propre de l’objet « territoire ». La hiérarchie permet d’expliquer l’organisation spatiale en ordonnant les objets géographiques avec des pondérations réelles ou fictives. On peut également ajouter que la critique de cette table a été virulente. (1) Où est la place de la dynamique ? (2) Comment modéliser un phénomène d’émergence ? (3) Il y a trop de flèches dans les différents chorèmes.

    Malgré tout, comme la carte, la modélisation graphique se veut rigoureuse. Pour créer un modèle graphique, il faut partir d’une carte. Il faut d’abord identifier le principe d’organisation en jeu c’est-à-dire les structures élémentaires à combiner. Ensuite, il faut identifier une configuration territoriale, c’est-à-dire la forme de l’organisation spatiale en construisant un schéma, mais la forme du territoire importe peu. Par défaut, on utilise le cercle pour représenter ce dernier. Enfin, il faut mettre en avant les particularités et les singularités locales. Le modèle final est le résultat de la combinaison des structures élémentaires et de la confrontation de celles-ci avec des contingences locales. Cependant, ce n’est pas une simple superposition ou une simple addition. Il faut combiner les chorèmes de sorte que le modèle corresponde au mieux à ce que l’on a observé.

    Toutefois, on peut rencontrer un même modèle de nombreuses fois dans l’espace géographique. Dans ce cas, on peut construire un modèle intermédiaire constitué de chorèmes que l’on peut ensuite adapter aux cas particuliers. On appelle ce type de modèles graphiques : chorotypes. Autrement dit, le chorotype se veut être un modèle général d’un type d’organisation spatiale.

    Cependant, la modélisation graphique par les chorèmes est vivement critiquée par la communauté géographique. Philippe Cadène (1992) souligna les deux problèmes essentiels de la modélisation graphique : (1) le problème de la théorie sous-jacente des modèles graphiques ; (2) le problème de la démarche. Pour Roger Brunet (1968), tout modèle spatial doit reposer sur une théorie sociale. Cependant, il faut distinguer la théorie des modèles graphiques (soit structuraliste, soit systémique) et la théorie économique et sociale sous-jacente (idéologie). Cette position montre paradoxalement la limite des chorèmes car les théories sociales sont généralement insuffisantes pour expliquer l’espace géographique. Ils ont été utilisés pour instrumentaliser des rapports dominants-dominés. Par exemple, la ville domine la campagne, ou plus exactement, la ville doit dominer la campagne. Il n'est donc guère étonnant que devant le recul considérable du marxisme ; les chorèmes ont peu à peu été abandonnés par les géographes français.  

    En ce qui concerne la démarche, on rencontre deux types de difficultés : (1) celle de la hiérarchie entre les détails secondaires et les résidus ; (2) celle de l’explication des règles de construction. En effet, comme dans toute modélisation, les détails disparaissent, mais le fait que la construction des chorèmes ne soit pas une simple addition montre que le problème n’est pas si simple.

    On peut alors dresser un tableau (Figure 6) résumant les avantages et les inconvénients de la modélisation graphique par les chorèmes. Les critiques négatives étant plus nombreuses, cela permet d’affirmer que les modèles graphiques doivent être réinvestis par les géographes pour être perfectionnés ou abandonnés définitivement. Il est difficile de trancher, car leur abandon signifieraient qu'ils n'ont rien apportés à la géographie, à chacun de se positionner sur cette question. La modélisation graphique par les chorèmes avait pour but d’établir les principes d’organisation spatiale en géographie. L’objectif est bien de dépasser la contingence des lieux. Cependant, il ne faut pas oublier que la table des chorèmes était provisoire, mais comme tout ce qui tarde à être révisé, elle est devenue définitive.

Avantages - Qualités Inconvénients - Limites Solutions actuelles aux limites
Simplication en formes élémentaires Excès de simplification
Pouvoir de communication de la modélisation graphique (pour donner à voir de l'information, pour transmettre et présenter des résultats) La question de la différenciation entre les éléments essentiels et les détails secondaires (résidus)
Binôme de la représentation graphique et du commentaire qui l'accompagne Mauvaise utilisation (exemple : l'absence de textes explicatifs)
Complémentarité avec les autres outils de modélisation en géographie
Mettre en évidence des régularités de l'organisation de l'espace : c'est un instrument d'intelligibilité de l'espace - Règle de reproductibilité non respectée
- Caractère irréfutable en question (subjectivité)
- Modèle graphique, vu comme un « produit fini »
Processus de construction-déconstruction qui caractérise toute démarche de modélisation graphique
Expérimentation (approche prospective possible)
Modélisation graphique propre à la géographie : elle a été conçue par des géographes et pour des géographes
Champ de recherche à explorer (avancées méthodologiques possibles) - Le problème de l’échelle : comment emboîter des formes et comment rendre compte de l’émergence à une échelle et de la disparition une autre
- Le problème de la dynamique et de la profondeur temporelle
- L’inaptitude à rendre compte des réseaux
- Le retour à une démarche idiographique
- L’outil ne permet que de soulever des questions (caractères démonstratifs)
- L’absence de référence à un cadre théorique (métrique et valuation des structures élémentaires)
- Le jeu d’échelle : un chorème n’a pas d’échelle propre mais on peut faire un jeu d’emboîtement
- L’insertion du temps : soit on réalise différentes séquences, soit on adopte la technique de Christian Grataloup (1996)
Figure 6. Avantages et inconvénients des chorèmes en géographie
  • Principes de l'organisation spatiale en géographie

    Il s’agit ici de proposer quelques éléments de définition des principes premiers qui seraient spécifiques à une démarche géographique, et de relancer un vieux débat soulevé au Géopoint de 1980. Les principes géographiques ne sont pas aussi affirmés que ceux de la physique. Aussi, il faut formuler les principes géographiques sous forme de questions qui doivent être résolues avant de traiter un problème géographique. La recherche de principes géographiques est de passer de la question « comment où ? » (modèle) à « pourquoi où ? » (théorie). De plus, cela permettrait de résoudre partiellement le problème de l’idéologie qu’il peut y avoir derrière la quantification. La mathématisation de ces principes permettrait de faire progresser la conceptualisation de la géographie, car l’invention de nouvelles structures mathématiques modifiera les théories géographiques (Figure 7).

La théorie géographique
Figure 7. La théorie géographique

  • Le principe de continuité et finitude

    L’interface terrestre est-elle continue ou discontinue ? Est-elle finie ou infinie ? La réponse à ces questions reste difficile. C’est plus une question de choix méthodologique.

    Traditionnellement, l’analyse spatiale présente l’interface terrestre comme étant infinie et discontinue. Une discontinuité est une rupture apparaissant dans l’espace ou dans le temps. L’espace est riche en discontinuités de toutes sortes, marquées par des interfaces, des limites et des frontières. Les discontinuités peuvent être : (1) franches, brutales (une frontière, un mur…) ou (2) progressives, ménagées (une transition, une marge, une marche, une plage). Il existe deux types de discontinuités : les discontinuités exogènes, provoquées de l’extérieur et les discontinuités endogènes, produites par le processus lui-même, par le fonctionnement du système, sans intervention directe de l’environnement. Dans de nombreux cas, les discontinuités apparaissent dans l’étagement des phénomènes géographiques en altitude. La discontinuité endogène rétablit une forme de continuité là où l’on voit souvent une rupture inexplicable ou jugée exogène. D’après Roger Brunet, l’espace géographique comporte quatre grandes sortes de discontinuités : (1) toutes celles qui sont associées à l’approximation, aux maillages ; (2) toutes celles qui résultent du jeu des principales lois de l’espace ; (3) toutes les lignes de contact (ou interface) ; (4) toutes les limites de contrées qui marquent le passage d’un système spatial à un autre.

    Toutefois, on se rend bien compte aujourd’hui que l’interface terrestre est finie. C’est une évidence géométriquement. La terre présente une surface « sphérique ». Cependant, paradoxalement, l’Homme ressent cet espace géographique de manière infinie, or l’interface terrestre n’est qu’une bande coincée entre le manteau et l’atmosphère. Elle reste un espace continu. Cependant, bien qu’ayant cette qualité, elle est partitionnée par des discontinuités anthropiques et physiques. Comment émergent de telles discontinuités ? Les processus spatiaux ont toujours été envisagés de manière purement descriptive soit par des modèles discursifs, soit par des modèles mathématiques. Pour ces derniers, il n’y a jamais eu réellement d’analyse, au sens mathématique du terme. Pourquoi ? La réponse est simple : aucun outil ne permet de quantifier et d’analyser ces processus spatiaux. On verra par la suite qu’un espoir est permis grâce à l’analyse fractale[1] qui tentera de montrer que la discontinuité émerge du continu.

    Enfin, la Terre présente une surface finie, mais non bornée, face à laquelle les Hommes ne peuvent rien, sauf s’ils parviennent, un jour, à organiser des voyages interplanétaires ou intergalactiques. Les fronts pionniers vont donc disparaître. Nous sommes alors dans une logique de fonctionnement complètement paradoxale d’infinité reposant sur la surface, alors que, manifestement, nous sommes en réalité dans une logique finie. Dès lors, comment organiser autrement la Terre ? Il n’y a plus qu’une seule solution : c’est « conquérir » l’espace des échelles (terrestres) qui lui est réellement infini, dans la mesure où l’on pourra toujours créer un niveau intermédiaire plus ou moins pertinent. Il faut souligner que la géographie a tout de même été pionnière dans les raisonnements d’emboîtement d’échelles et d’effets d’échelle. Elle a montré que la seule manière d’organiser les territoires, au sens très large du terme, à l’heure actuelle, était de favoriser le partenariat des différents acteurs qui interviennent à différentes échelles. Autrement dit, un nouveau « front pionnier » se met en marche : la conquête, ou plus précisément, la maîtrise des échelles.

    Cependant, la conquête des échelles ne concerne plus uniquement la géographie. La découverte des fractales a ouvert un important champ transdisciplinaire qui montre que tous les phénomènes naturels et/ou anthropiques prennent des formes fractales issues de dynamiques chaotiques, qui ont été démontrées par Laurent Nottale comme étant inévitables. Même si ces courants tendent à s’essouffler aujourd’hui, il n’en reste pas moins qu’ils ont mis en évidence toute sorte de règles d’échelle. Cette thèse se propose d’aller au-delà de ces approches à la lumière de la relativité d’échelle de Laurent Nottale.

    Pour conclure, l’Humanité, si elle veut survivre, n’aura pas d’autres choix que de se partager les maigres ressources de notre planète, mais aussi, de commencer à apprendre à vivre avec la Nature, surtout dans les sociétés occidentales. Celles-ci ont dès lors une énorme responsabilité : il faut qu’elles admettent que le modèle  tant admiré par de nombreux pays en voie de développement, est certainement le pire qui soit pour l’avenir de l’espèce humaine à moyen et long terme. En effet, certains spécialistes avancent l’idée que si la planète entière vivait en suivant les mêmes us et coutumes que l’Occident, il faudrait deux ou trois planètes pour subvenir à la demande globale. Il est donc urgent de modifier notre approche de la gestion des territoires. Le géographe deviendrait alors le porte-parole et le chercheur par excellence de cette nouvelle philosophie du monde, surtout à l’heure de la mondialisation. Définir un principe de continuité et d’infinitude serait donc le bienvenu en géographie.

  • Le principe d'anisotropie et d'hétérogénéité

    Il s’agit de notions mathématiques précises. Isotrope signifie que toutes les directions sont équivalentes. L’espace isotrope est un espace idéal, non dissymétrique, non orienté, non différencié, qui est parfois introduit dans la réflexion théorique des économistes. De manière plus rigoureuse, l’isotropie correspond à une invariance sous les rotations. A contrario, anisotrope signifie que toutes les directions ne se « valent » pas. En règle générale, la géographie est contrainte de poser comme hypothèse fondamentale l’anisotropie de son espace, même dans la modélisation.

    Homogène signifie de même origine. Un espace homogène est défini par des parties qui se ressemblent, ou forment un tout, quelles que soient leurs origines. De manière plus mathématique, l’homogénéité se définit par une invariance sous les translations. Par contre, hétérogène signifie qui a une autre nature. L’espace hétérogène désigne ce qui est fait de parties de nature différente et peu liées, ce qui manque d’unité. Le choix est plus délicat.

    Toutefois, en géographie, on étudie les deux aspects. Par exemple, pour les automates cellulaires ou pour les systèmes multi-agents, l’espace de départ est isotrope et homogène. Puis, progressivement, il devient anisotrope et hétérogène. Un problème épistémologique se pose alors sur l’origine de cette anisotropie de l’espace géographique : soit, au départ, il était isotrope et homogène, soit il était anisotrope et homogène dès le début (ce qui est peu probable, mais reste possible).

    Aussi, il est difficile d’ériger en principe géographique les notions de continuité - discontinuité, de finitude - infinité, d’isotropie - anisotropie et d’homogénéité - hétérogénéité. Il faut, comme la physique, étudier l’espace géographique à la lumière des couples possibles.

  • Le principe d'interaction (ou des actions réciproques)

    Le mouvement est une variation au cours du temps de la position. Il s’oppose au terme statique qui désigne les positions fixes. La mesure du mouvement s’effectue par la vitesse, elle-même complétée par l’accélération qui correspond à une variation des vitesses. A contrario, en géographie, la position des lieux est « fixe », mais le temps s’écoule, à quelques exceptions près comme la dérive des continents ou l’abandon d’un lieu par l’homme (Durand-Dastès, 1984).

    à l’origine, la dynamique désigne la physique des forces et des accélérations. Elle se décompose en deux : la cinématique qui étudie le mouvement et la statique qui étudie l’immobilisme. L’objectif des lois de la dynamique est de déduire le mouvement des corps à partir de la connaissance des forces s’exerçant sur eux et des conditions initiales du mouvement. La dynamique est fondée sur l’axiome suivant : tout changement de lieux se produit uniquement dans le temps. Autrement dit, tout mouvement est un changement continu de lieu auquel correspondent des valeurs du temps variant également d’une manière continue. Les trois lois de la dynamique ont été formulées par Isaac Newton. La première loi d’Isaac Newton énonce le principe de l’inertie. La seconde loi précise que, dans un référentiel galiléen, la somme des forces extérieures[2] est égale à l’accélération pondérée par la masse.

    L’action se définit par le fait que des objets exercent des forces les unes sur les autres, et les forces sont des causes de déformation, de mouvement ou de propagation. A contrario, l’interaction se définit par des actions réciproques. Elle s’exerce soit par un contact direct, soit à distance. Si deux corps A et B sont en contact, l’action de A sur B s’accompagne toujours de l’action de B sur A, que les corps soient immobiles ou en mouvement. Autrement dit, mathématiquement, lorsqu’un corps A exerce sur un corps B une force F de A sur B, le corps B exerce une force F de B sur A telle que FA→B = - FB→A.

    Cette règle a été importée en sciences humaines via l’économiste William J. Reilly (1931). Il proposa un modèle dit gravitaire pour expliquer les échanges commerciaux entre plusieurs villes. Les échanges commerciaux entre la ville A et ses villes intermédiaires, ou par analogie, ses satellites, ainsi que ceux entre la ville B et ses villes intermédiaires, sont notés respectivement BA et BB. Ceux-ci sont reliés aux nombres d’habitants de chacune de ces villes (notés respectivement PA et PB) et aux distances moyennes entre les villes A et B avec leurs villes intermédiaires respectives (DA et DB) par la formule suivante :

\[\frac{B_A}{B_B} = \left(\frac{P_A}{P_B}\right)^N \left(\frac{D_A}{D_B}\right)^n \]

N et n représentent la sensibilité de la dépendance des échanges commerciaux avec les prédictions individuelles (Reilly, 1931).

    Cette formule fut corrigée par Paul D. Converse (1948) qui introduit la distance DAB entre la ville A et la ville B. Cela permet, selon lui, de définir la limite BPD entre la zone d’attraction de la ville A et celle de la ville B.

\[BPD = \frac{D_{AB}}{1+\sqrt{\frac{P_A}{P_B}}} \]

De plus, il introduit dans la formule de William J. Reilly ce qu’il appelle un « facteur d’inertie » valant 4 qui détermine la part des échanges entre la ville A et la ville B :

\[\frac{B_A}{B_B} = \left(\frac{P_A}{P_B}\right) \left(\frac{4}{d}\right)^2 \]

d représente une certaine distance à l’extérieur de la ville.

    Walter Isard (1956) proposa un modèle plus proche de la loi d’Isaac Newton. Peter Haggett (1973) importa ce modèle en géographie. Chaque ville possède une « force d’attraction » F différente :

\[F_{A \rightarrow B} = \alpha_1 \frac{P_A P_B}{{D_{AB}}^{\gamma_1}} \]

\[F_{B \rightarrow A} = \alpha_2 \frac{P_A P_B}{{D_{AB}}^{\gamma_2}} \]

αn et γn (= {1, 2}) représentent les paramètres du modèle. Il est important de noter que le paramètre γ peut être différent de 2, à la différence du modèle d’Isaac Newton. De plus, en règle générale, FA→B et FB→A ne sont pas identiques (Pumain et Saint-Julien, 2001). Ce modèle a été érigé en principe en géographie. Le principe d’interaction permet d’étudier l’arrangement entre les lieux. Ainsi, « tout ce qui se trouve ou se passe dans un lieu donné est en partie déterminé par tout ce qui se passe ou se trouve dans un ensemble de lieux en relation avec le lieu considéré » (Durand-Dastès, 1990).

    Cependant, d’autres modèles gravitaires dits « probabilistes » existent. Par exemple, David Huff (1964) construisit un modèle probabiliste à l’échelle intra-urbaine :

\[p_{AB} = \frac{S_B}{{T_{AB}}^n} \frac{1}{{\sum^m_{B=1}} \left(\frac{S_B}{T_{AB}}\right)^n} \]

pAB représente la probabilité qu’un consommateur fasse le trajet entre un point A et un centre commercial B. TAB correspond au temps de trajet entre ces deux points ; SB à la superficie du centre commercial B ; n au facteur de sensibilité.

    William C. Black (1987), quant à lui, définit pAB de la manière suivante :

p_{AB} = \frac{\pi {A_{AB}}^N \pi {D_{AB}}^n}{{\sum^m_{k=1}} \left(\pi A_{ABk} \pi D_{ABk} \right)}

A représente les facteurs d’attraction comme la taille et l’apparence du commerce et D les facteurs de répulsion comme le temps du trajet ou le prix.

    Enfin, Barry J. Babin et alii (1991) proposèrent de revenir sur le modèle de William J. Reilly en remplaçant la population par l’attractivité A et la distance moyenne par le coût moyen C associé au choix du centre :

\[\frac{B_A}{B_B} = \left(\frac{A_A}{A_B}\right)^N \left(\frac{C_B}{C_A}\right)^n \]

    Tous ces modèles gravitaires ont le même défaut : la connaissance du centre est a priori. Le modélisateur décide où se localise ses centres (ou ses pôles), et ensuite, ils les comparent entre eux, les autres localisations étant par défaut des satellites. Dans les chapitres suivants, cette thèse essayera de proposer une méthode pour déduire la position des pôles dans un espace géographique.

  • Les modèles graphiques

    Dans les années 1990, avec la généralisation des ordinateurs, des outils de modélisation graphique beaucoup plus puissants sont apparus. Les modèles numériques d’élévation et/ou de terrain ont permis de mieux appréhender les reliefs que la carte topographique. En même temps, sont apparus les automates cellulaires et les systèmes multi-agents. Certes, ils possèdent une interface numérique, mais ils demeurent avant tout utilisés pour leur interface graphique.

3.2.1.3. Le modèle analogique

    Dans les années 1960, la géographie a développé des axes analogiques importants avec d’autres disciplines. Le cas d’école est bien sûr le modèle gravitaire d’Isaac Newton : deux villes « s’attirent » proportionnellement à leur population et à l’inverse du carré de la distance qui les sépare (Reilly, 1931). Analogie qui s’est montrée plus ou moins pertinente, mais elle s’est mainte fois avérée utile, par défaut.

3.2.1.4. Le modèle mathématique

    « Un modèle mathématique d’une certaine réalité ou d’un certain système se caractérise comme l’ensemble des variables choisies pour la description et les relations mathématiques qu’elles présentent entre elles » (Bertrandias, 1997, p. 111). Au final, un modèle doit prévoir certaines variables au moyen de calculs, de dessins ou du fonctionnement d’un mécanisme analogue. Toutefois, il doit aussi expliquer le phénomène étudié au moyen d’hypothèses, de principes généraux [c’est-à-dire les principes premiers] ou par coordination de mécanismes simples, ce qu’offre le modèle mathématique. Ainsi, « le langage mathématique permet d’organiser et de relier les lois intervenant dans un modèle. Certaines lois élémentaires (comportement des éléments indécomposables du système) ou fondamentales (conservation […] [de certaines quantités]) sont prises comme point de départ et forment les hypothèses de base et les axiomes du modèle. A partir de ces lois, d’autres lois sont obtenues comme résultat de calculs ou de raisonnements utilisant les règles algébriques habituelles (opérations sur les entiers, plus généralement sur les types, évaluation ou transformation des expressions) complétées par les notions d’analyse […] (dérivation, intégration, passage à la limite) » (Bertrandias, 1997, p. 111). C’est de là que l’on tire « la puissance des modèles mathématiques [qui] tient à l’aide apportée par les concepts spécifiquement mathématiques (nombre, fonctions, limites par exemple) mais aussi au langage mathématique lui-même dans sa syntaxe (numérotation de position, forme des expressions, notation différentielle par exemple) » (Bertrandias, 1997, p. 111). Autrement dit, il ne suffit pas de poser une équation mathématique pour avoir un modèle mathématique. Le modèle mathématique ne doit donc pas être associé systématiquement à une mise en équation.
    En géographie, le modèle mathématique n’existe presque pas (Franc, 2001). Il faut donc largement l’explorer. Avec, toutefois, une réserve formulée par André Dauphiné, « si les mathématiques, mal utilisées, peuvent entraîner une sclérose, un appauvrissement des concepts, elles peuvent inversement enrichir des concepts flous, et permettre le passage du construit au concept » (Dauphiné, 1978, p. 20). C’est dans cette optique qu’il faut comprendre les développements récents sur la loi rang - population urbaine (Forriez et Martin, 2007 ; Forriez et Martin, 2009) et les travaux de Philippe Martin sur les reliefs (Martin, 1997 ; 2004 ; 2005 ; 2006b ; 2006c ; 2008c ; 2009).

3.2.2. La modélisation mathématique

    La modélisation mathématique est une modélisation particulière, mais elle respecte les grandes règles de construction connues des géographes, auxquelles il faut ajouter la rigueur du langage mathématique.

3.2.2.1. Étapes préliminaires à la modélisation mathématique

    Les étapes préliminaires à la modélisation mathématique sont au nombre de deux. (1) On crée des variables quantifiées et quantifiables de grandeurs considérées comme étant importantes. Leurs valeurs respectives sont le résultat de mesures ou d’observations. (2) On recherche des relations mathématiques entre ces variables, fondées sur des principes premiers (c’est-à-dire universels) et fondamentaux.

    Ces relations deviennent des lois si on peut les formuler au moyen d’objets mathématiques. Une fois qu’une fonction unifiant les variables entre elles (la plus simple possible) a été identifiée, on peut lui appliquer toutes les règles mathématiques connues pour trouver ses différentes formes, et surtout comprendre les différents rapports qui existent entre ces formes mathématiques. On appelle cet ensemble de fonctions reliées un modèle mathématique. Il est important de noter que c’est ce modèle qui doit s’adapter au phénomène géographique étudié, et non l’inverse. La loi rang-taille appliquée à la hiérarchisation de la population urbaine fournit un bon exemple de ce qu’il ne faut pas faire. Durant une vingtaine d’années, les utilisateurs se sont bornés à rechercher une droite de régression dans l’espace du logarithme de l’inverse du rang (présenté dans un ordre décroissant) versus le logarithme de la population, or il est apparu récemment (Rosen et Resnick, 1980 ; Laherrère, 1996 ; Forriez et Martin, 2007, Forriez et Martin, 2009) que le bon modèle pour les données de 2000 du réseau urbain mondial, par exemple, était un polynôme du second degré caractérisé par une demi parabole. Cet exemple montre qu’il faut toujours partir des données, et ne jamais appliquer, en première étape, un modèle mathématique préconçu.

3.2.2.2. Typologie des modèles

    Les modèles se classent en une double typologie (Figure 8). Ils sont soit descriptifs, soit explicatifs. Ils sont soit déterministes, soit aléatoires. Il est important de noter qu’un modèle aléatoire ne signifie en aucune façon que le modèle ne soit pas nomothétique car, formellement, il obéit aux lois de la statistique et des probabilités.

Modèle déterministe Modèle probabiliste
Modèle descriptif Modèle mathématique descriptif Statistique descriptive
Modèle explicatif Modèle mathématique prédictif Statistique quantique
Figure 8. Double typologie des modèles

    Le modèle déterministe fait souvent appel aux équations différentielles ou à un système différentiel. Il correspond à une ou plusieurs variables. Dans ce type de modèle, le hasard n’intervient pas : aucun facteur ne peut perturber le modèle. De ce fait, ce modèle n’existe presque pas en géographie. Il existe quelques modèles déterministes en géographie physique, mais il est évident qu’en géographie humaine, cela n’a guère de sens.

    Le modèle probabiliste se fonde, quant à lui, plutôt sur les probabilités et les variables aléatoires, utilisables grâce aux estimations et aux tests statistiques. Le plus évolué est le modèle quantique qui permet d’obtenir des statistiques explicatives de phénomènes spatiaux, temporels et spatio-temporels.

    La distinction n’est peut-être qu’une approximation, car il existe des évolutions déterministes et causales au cours du temps d’une densité de probabilité. Dans ce cas, les deux peuvent être combinés, ce qui correspondra un « déterminisme de structure » (Nottale et alii, 2009).

3.2.2.3. Processus de la modélisation mathématique

    On peut résumer ce processus en cinq grandes étapes qui sont :

  1. le choix des variables ;

  2. la formulation du modèle ;

  3. l’identification des paramètres ;

  4. la validation du modèle ;

  5. l’extension à des situations générales.

    « La modélisation d’un phénomène commence dès le choix des aspects qu’on choisit de considérer ensemble et qu’on regroupe souvent en un système : un état du système est caractérisé par les valeurs présentes ou passées de variables qu’on appelle variable d’état et l’interaction du système avec d’autres réalités est précisé par des variables d’entrée et des variables de sortie. En général, le système évolue dans le temps et passe d’un état à un autre sous l’effet des variables d’entrée : si le nouvel état est défini de manière prévisible et unique à partir des valeurs des variables dans l’état précédent, on dit que le système est déterministe » (Bertrandias, 1997, p. 109), ce qui introduit bien le processus de modélisation.

  • Le choix des variables

    Le choix des variables reste l’opération la plus délicate. En général, le choix s’opère de manière aléatoire. On choisit telles ou telles variables quantitatives parce qu’on les a « sous la main ». Cependant, lorsqu’on a le choix, il faut distinguer les variables importantes des variables négligeables.

    De plus, il existe deux types de variables : les variables qui peuvent être mises à jour dont la valeur est observable et contrôlable, et les variables exprimées en fonction de variables plus simples ou plus accessibles (par exemple le rang dans les lois rang - taille à la place de la localisation géographique).

  • La formulation du modèle

    La formulation du modèle s’effectue dans un langage précis dont il ne faudra jamais oublier les limites. En modélisation mathématique, la formulation correspond à la mise en équation. Celle-ci est loin d’être simple car il n’existe aucune méthode universelle. Toutefois, la technique la plus employée reste de poser des hypothèses « parfaites » et de formuler la ou les équations dans le langage d’une théorie mathématique pertinente, et ensuite de complexifier les équations pour essayer de se rapprocher de la réalité.

  • L'identification des paramètres

    « Un modèle est souvent susceptible de s’adapter à plusieurs situations réelles, chaque situation particulière étant caractérisée par les valeurs de variables appelées paramètres. Dans le processus de modélisation, l’adaptation à telle situation précise est la phase d’identification : comment déterminer (c’est-à-dire identifier) les paramètres du modèle ? » (Bertrandias, 1997, p. 110). En effet, la plupart du temps, ce sont des constantes. Ce sont des valeurs que l’on ne peut expliquer, mais elles sont indispensables à la pertinence du modèle. Elles correspondent souvent à une application à un cas pratique d’un modèle purement théorique.

  • La validation du modèle

    Cette validation s’opère en comparant le modèle avec la réalité. Le modèle est-il adapté à la situation étudiée ? Les écarts avec le modèle sont-ils acceptables ou doit-on changer de modèle ? La loi rang - population urbaine fournit une nouvelle fois un bon exemple. Le modèle « droite de régression dans l’espace [ln(1/r), ln(P)] ne fonctionnant presque jamais, car les écarts étaient trop importants entre la réalité et le modèle, le modèle « parabole en [ln(1/r), ln(P)] » a pu être validé (Forriez et Martin, 2007, Forriez et Martin, 2009).

  • L'extension du modèle

    L’extension du modèle cherche à répondre à la question suivante. « En tenant compte de variables supplémentaires jusqu’alors négligées ou en raffinant les mesures et les observations, peut-on adapter le modèle à une situation plus complexe ou à un niveau d’observation plus fin ? » (Bertrandias, 1997, p. 110). Cette étape peut être l’occasion de préciser certains paramètres, c’est-à-dire de théoriser davantage le modèle. Ainsi, le modèle s’approchera de plus en plus de la réalité observée.

3.2.2.4. La simulation

    La simulation numérique est une étape importante qui achève généralement une modélisation mathématique. En effet, après la modélisation qui est un processus purement théorique, elle permet d’éprouver un modèle. Elle n’est pas propre à la modélisation mathématique, mais avec le développement fulgurant de l’informatique ces dernières années, elle permet de tester des modèles mathématiques, comme jamais ils n’ont pu l’être. En géographie, la simulation est surtout utilisée abondamment pour tester un système multi-agent ou un automate cellulaire (White, 1998 ; White et Engelen, 1993 ; 1997).

3.2.2.5. La théorisation

    Précédemment, on avait précisé que les paramètres d’un modèle étaient des constantes que l’on ne peut expliquer. La théorisation est le processus (mathématique) permettant de justifier, et surtout de prédire, la valeur de ces constantes, souvent à partir de mesures indépendantes. En géographie, cela n’existe pas encore, mais aujourd’hui il semblerait que cela devienne une réalité, du moins en géographie physique grâce aux travaux de Philippe Martin et de Laurent Nottale. On peut donc dire que l’explication des constantes engendre une nouvelle théorie scientifique. Ainsi, « une théorie scientifique n’est rien d’autre qu’une représentation mathématique, dans les formules, des équations et des règles de correspondance des objets physiques qu’on veut étudier et des comportements qu’ils vont avoir dans différentes circonstances » (Zwirn, 2006, p. 52).

3.2.3. La modélisation mathématique est-elle possible en géographie ?

    Tout au long des paragraphes précédents, la quasi-inexistence de la modélisation mathématique en géographie a été montrée. La raison est fort simple. Le géographe privilégie les démarches inductives, ce qui, bien sûr, va a contrario de la modélisation mathématique qui trouve sa justification dans la démarche déductive. Nous avons également insisté sur la puissance de cette modélisation. On crée une loi de toute pièce, et on vérifie si elle fonctionne dans les cas observés. La géographie peut commencer à s’engager dans cette voie, car elle possède désormais suffisamment des quantités de variables localisées ou qui dépendent de la localisation. On peut donc parfaitement créer des lois où la variable spatiale est infinitésimale, par exemple, et vérifier si elle fonctionne. Toutefois, il ne faut pas oublier que la nature mathématique de l’espace géographique est fractal, ce qui pourrait impliquer dans certaines situations et sous certaines conditions restrictives une dynamique de type quantique, et non classique (Forriez, 2007). Cette variable spatiale dépendra donc explicitement de sa résolution. C’est en s’engageant dans cette voie que la géographie pourra affirmer son statut de science originale et autonome. Cela sera douloureux ; cela suscitera des craintes et des doutes, mais la quantification en analyse spatiale en sortira grandie. De plus, l’approche relativiste au sens einsteinien du terme a souvent été adoptée sans le savoir en géographie.

3.3. L'approche relativiste

    La première approche naturelle de l’espace géographique reste de le considérer comme lisse, c’est-à-dire de le penser avec des figures, des objets, des espaces euclidiens (carré, cercle, pavé, cylindre, etc.), or paradoxalement, ces êtres géométriques caractérisent très mal l’espace géographique. Ainsi, pourquoi continuer à considérer les objets et/ou l’espace géographique par ce qu’ils ne sont pas ? La terre n’est pas une boule lisse dénuée de rugosité. Comment donc la caractériser ?

3.3.1. La nature de l'espace géographique

    Fondamentalement, il existe deux couples possibles. L’espace est soit homogène, soit hétérogène et soit isotrope, soit anisotrope (cf. paragraphe 3.2.1.2.).

3.3.1.1. Homogène et isotrope

    Homogène et isotrope ont été défini précédemment. En règle générale, un espace homogène est isotrope, ce qui signifie que toutes les directions sont équivalentes. Il n’y a donc pas de rugosité. Pendant longtemps la plupart des modèles géographiques ont été fondés sur ces concepts. Parmi les modèles les plus célèbres, on peut citer les modèles de Johann van Thünen, le modèle de Walter Christaller.

    Plus récemment, Roger Brunet (1980) a renouvelé le genre avec les chorèmes et la chorématique. Il admet pour construire sa chorématique une hypothèse extrêmement forte : l’espace géographique est fondamentalement isotrope et homogène. Comme cela a déjà été signalé, cette nature de l’espace peut se résumer en vingt-huit formes élémentaires appelées chorèmes (Figure 5). Selon lui, la combinaison de ces formes simples explique alors le caractère apparent de l’espace géographique, à savoir la nature anisotrope et hétérogène.

3.3.1.2. Hétérogène et anisotrope

    Dans un espace hétérogène, la densité de l’objet considéré varie en fonction de la surface considérée ; elle dépend donc de l’échelle d’observation. La position défendue ici est de prendre l’hypothèse inverse de Roger Brunet, à savoir que l’espace géographique est fondamentalement anisotrope et hétérogène. Pour être clair dès le début, il ne s’agit pas de prétendre que la démarche de Roger Brunet n’ait aucun intérêt, bien au contraire, ce raisonnement inverse va permettre de l’enrichir considérablement. Si l’espace est rugueux par définition, quel est l’outil le plus simple pour le représenter ? En fait, lorsque Roger Brunet établit sa théorie des discontinuités, la théorie des fractale est apparue de manière concomitante. Autrement dit, l’outil permettant de décrire des phénomènes anisotropes et hétérogènes n’a pas pu l’inspirer. En effet, la géométrie fractale amène à étudier directement l’anisotropie et l’hétérogénéité. Toutefois, les fractales étaient peu fonctionnelles en géographie, car leur définition sous forme d’objet ne permettait pas une bonne application du concept. Ainsi, il faut passer à une position relativiste telle que le propose Laurent Nottale (Nottale, 1984 ; 1989 ; 1992).

3.3.1.3. Continu ou discontinu

    Si les couples homogène - hétérogène et isotrope - anisotrope sont facilement perceptibles, le couple continu - discontinu l’est beaucoup moins. C’est pourtant selon Roger Brunet (1968) le concept clé de la géographie. Il faut tout de suite préciser qu’un espace peut être continu, anisotrope et hétérogène (montagne, organisation d’une ville) ; discontinu, anisotrope et hétérogène (archipel, réseau urbain) ; continu, isotrope et homogène (villes américaines, boule de billard, courbe de Van Koch) ; discontinu, isotrope et homogène (tapis de Sierpinski, ensemble triadique de Cantor, graphique de la fonction inverse). Pour les deux derniers, il est difficile de trouver des archétypes géographiques, même si on les rencontre abondamment.

3.3.1.4. Synthèse : l'émergence des limites

    Les trois couples possibles permettant la description de l’espace géographique sont intimement liés à l’échelle d’observation : généralement, plus l’échelle est fine, plus l’objet sera discontinu, anisotrope et hétérogène. A contrario, plus l’échelle sera grossière, plus l’objet sera continu, isotrope et homogène. Toutefois, le problème n’est pas si simple, car si l’objet géographique devient certes continu, il n’en est rien de l’espace géographique. Par exemple, à l’échelle planétaire, les grandes structures urbaines peuvent être représentées par des taches qui sont continues si on les considère comme des objets indépendants, mais l’ensemble de ces taches forme un espace géographique discontinu.

    On arrive à l’idée que limites d’un objet, espace, continuité - discontinuité, isotropie - anisotropie et homogénéité - hétérogénéité sont des notions fondamentalement liées à l’échelle d’observation (chapitre 2 ; Béguin et Pumain, 1994, p. 13-18). Autrement dit, tous ces concepts sont relatifs à la résolution. De plus, selon les situations et les localisations, le modélisateur spatial choisira l’un ou l’autre de ces concepts dans l’un de ces deux couples. Ainsi, ce choix peut s’effectuer :

  1. en fonction de son échelle. Cela permet de rappeler que la base de la fractalité est l’étude de l’apparition et de la disparition d’une structure spatiale en fonction de son échelle qui se traduit généralement par un jeu d’emboîtement d’échelle qui est parfaitement modélisable de manière mathématique ;        

  2. en fonction de critères personnels. La frontière empirique entre homogénéité et hétérogénéité et entre isotropie et anisotropie est extrêmement flexible. Chacun possède un regard différent de la même situation : l’un va percevoir une hétérogénéité, l’autre une homogénéité pour des raisons logico-culturelles différentes.

    Ainsi, un des enjeux de l’analyse spatiale est de trouver des techniques qui permettent d’objectiver ce choix. Pour comprendre la morphogenèse d’un objet - espace géographique, il faut nécessairement adopter une position relativiste au sens einsteinien du terme.

Objet géographique et résolution
Figure 9. Objet géographique et résolution (Cuénin, 1972)

3.3.2. La position relativiste

    L’idée d’introduire la notion de « relativité » en géographie est déjà relativement ancienne (Brunet, 1990 ; Parrochia, 2006). Toutefois, comment appliquer la théorie de la relativité à un espace géographique ? Daniel Parrochia (2006) réalise une excellente synthèse sur la mise en œuvre intuitive du principe de relativité en géographie. Toutefois, il ne faut pas confondre relativisme et relativité. Le relativisme est une philosophie qui prétend que tout est relatif. En fait, il s’agit d’un cliché posé par la postmodernité. Par contre, « ce qu’affirme le principe de relativité, c’est qu’il existe certaines grandeurs particulières, caractérisant l’état du système de coordonnées, grandeurs qui ne peuvent jamais être définies de manière absolue. En un sens plus général encore, on peut dire que ces grandeurs réalisent l’interface entre nous et le monde extérieur, sur lequel nous voulons effectuer des mesures » (Nottale, 1998, p. 103). « La relativité consiste en fait en une recherche de l’universel à travers une analyse du relatif » (Nottale, 1998, p. 104). La relativité est donc un principe philosophique très général qui peut se formuler de la manière suivante : « toute chose est définie relativement à un système de référence », c’est-à-dire qu’il faut systématiquement définir ce référentiel.

3.3.2.1. Principe de relativité

    La relativité est un des plus anciens principes de la physique. Laurent Nottale (1998) résume bien son histoire. Pour la simplifier, on peut dire que la relativité est marquée par trois grandes étapes : l’œuvre de Galilée (relativité du mouvement) et l’œuvre de Henri Poincaré et d’Albert Einstein pour la relativité restreinte et d’Albert Einstein pour la relativité généralisée.

    Avec Laurent Nottale, le « principe d’échelle » de Benoît Mandelbrot (1975) est identifié au grand principe physique de la relativité, ce qui aboutit à la définition d’une relativité d’échelle. Ceci revient à dire que les lois de la nature doivent être valides quel que soit le système de coordonnées choisi. Un système de coordonnées est défini par une liste de nombres, ces nombres représentant les valeurs de grandeurs qui caractérisent l’état du système de coordonnées. Celui-ci se définit par un état de position, d’orientation, de mouvement et d’échelle. Le premier se caractérise par les trois coordonnées spatiales et une temporelle ; le second par trois angles (ou six dans le cadre d’un espace-temps) ; le troisième par trois vitesses et trois accélérations ; le quatrième par quatre résolutions spatio-temporelles et leurs corrélations (Nottale, 2010). Les valeurs des grandeurs sont donc relatives à un autre système de coordonnées. Ce principe est extrêmement fort : une loi transcrivant un phénomène naturel observé ne doit pas dépendre du support, de l’espace support choisi. Il dépasse donc naturellement, presque lui-même le cadre de la seule physique.

    En géographie, cela fait une cinquantaine d’années que nous recherchons des lois spatiales, mélangeant les aspects naturels et les aspects anthropiques. Malheureusement, la dépendance de nos lois par rapport au système de coordonnées choisi est évidente. En introduisant le principe de relativité dans notre discipline, le sens de nos mesures et interprétations ne pourra qu’être plus fort.

    En fait, il existe « trois grandes relativités du mouvement » : la relativité galiléenne, la relativité restreinte et la relativité généralisée. A celles-ci, l’idée de Laurent Nottale est de rajouter une relativité d’échelle qui, par analogie, se subdivisera en « relativité galiléenne d’échelle », « relativité restreinte d’échelle » et « relativité généralisée d’échelle ». La relativité restreinte d’échelle étant quelque chose de spécifique à la physique, elle ne devrait pas exister en géographie (Nottale, 2010). Par contre, la relativité d’échelle galiléenne explique les cas où la dimension fractale est constante dans l’espace-temps. De plus, la relativité généralisée d’échelle sera au cœur de cette thèse. Celle-ci permet de rendre compte des dimensions fractales variables. En première approximation, tous les cas étudiés dans cette thèse correspondront à ce que l’on appelle une « dynamique d’échelle ». Ainsi, il semble de plus en plus évident que l’espace géographique ne pourra être défini que par cette approche.

    La relativité d’échelle est une représentation géométrique de la nature, par l’intermédiaire d’un espace, et non plus un objet ! L’objet est ponctuel et peu commode à généraliser. Un espace est plus pratique car il est défini de l’intérieur, donc descriptible en tout point.

  • Relativité galiléenne

    C’est une première forme de relativité. Elle consiste à séparer espace et temps. La position devient une conséquence du temps dans le cadre d’un déplacement. Elle est à la base de la mécanique newtonienne dont le fer de lance est le principe d’inertie. Dans ce cadre, la vitesse reste constante. Relativités restreinte et généralisée montrent que ce n’est qu’un cas particulier, qu’une première approximation. Toutefois, on constate que « l’origine et l’orientation d’un système de coordonnées ne sont pas absolues et dépendent d’un choix du système de référence. L’état du mouvement est lui aussi dépendant d’un système de référence non absolu » (Da Rocha, 2004, p. 3).

  • Relativité restreinte

    La relativité restreinte change de cadre théorique par rapport à la relativité galiléenne. En effet, on ne sépare plus désormais l’espace et le temps, mais on construit un espace-temps (à quatre dimensions) plat (c’est-à-dire non courbe). La construction de cette théorie n’est possible que si l’on pose l’invariance de la vitesse de la lumière qui devient donc la vitesse maximale de propagation des interactions. Autrement dit, la vitesse de la lumière est la manifestation d’un infini inaccessible (par effet de projection d’un espace à quatre dimensions dans un espace à trois dimensions). De plus, chaque référentiel possède, pour les distinguer, un temps propre, c’est-à-dire le temps indiqué sur l’horloge liée à ce référentiel. Un changement de référentiel quadridimensionnel s’opère grâce à la transformation de Lorentz, c’est-à-dire une rotation dans l’espace-temps. En fait, la relativité restreinte n’est qu’une étape intermédiaire vers la relativité généralisée, mais étant donné la grande valeur de la vitesse de lumière, la théorie de la relativité restreinte est inapplicable en géographie ; elle n’est citée que pour mémoire.

  • Relativité généralisée

    La différence entre la relativité restreinte et la relativité généralisée modifie profondément les équations de la physique par le simple fait de ne plus avoir un espace-temps plat, mais courbe. Aussi, pour y remédier, Albert Einstein introduisit les principes de covariance et d’équivalence qui montrent, entre autres, que la matière équivaut à la géométrie, elle-même restant relative (Nottale, 1998, p. 83). Cette géométrie se retrouve évidemment en géographie lorsque l’on trace une carte ou un modèle numérique de terrain. De plus, les temps en géographie sont propres à chaque objet, la durée de vie d’une montagne n’est pas la même que celle d’une ville par exemple

  • Les principes de covariance et d'équivalence

    Le principe de covariance exige que les équations doivent garder leur forme (la plus simple possible) dans les transformations du système de coordonnées (Nottale, 1998). On distingue deux types de covariance : la covariance faible et la covariance forte. La covariance faible correspond au cas où les équations ont gardé, sous une transformation plus générale, la même forme que sous la transformation particulière précédente. La covariance forte correspond au cas où la forme la plus simple possible des équations a été obtenue.

    Le principe d’équivalence articule les principes de relativité et de covariance pour un « objet » donné. Il montre comment un objet physique peut être remplacé, dans des conditions bien précises, par un autre équivalent (Nottale, 1998). Par exemple, le champ de gravitation est localement équivalent à un champ d’accélération.

  • Vers une relativité d'échelle

    « Position, orientation et mouvement sont les notions relatives prises en compte par les théories actuelles d’Einstein, qui énonce ainsi le principe de relativité, « les lois de la nature sont valides dans tout système de référence, quel que soit son état ». Cependant, la question que l’on peut légitimement se poser est de savoir si l’état d’un système de référence est pleinement caractérisé par les seules données de position, orientation et mouvement » (Da Rocha, 2004, p. 4). De ce fait, « l’effet d’échelle » de la géographie peut modifier parfois profondément la vision que l’on a de l’objet étudié. Aussi, à l’état temporel et à l’état spatial, il serait peut-être utile d’ajouter un état d’échelle. Certes, on place toujours une échelle sur une carte, mais toujours de manière neutre, or celle-ci est toujours riche en informations si l’on possède les bons outils pour l’analyser, l’outil privilégié est bien entendu l’analyse fractale.

  • état d'échelle d'un système

    Daniel Da Rocha résume parfaitement l’ensemble des états d’échelle possible d’un système de coordonnées. « Un système de coordonnées à résolution trop élevée ne donnera pas le même résultat qu’un système de coordonnées caractérisé par une résolution bien plus faible. […] En diminuant la résolution de la mesure (du moment qu’elle est suffisamment faible par rapport à la distance parcourue), on peut retracer le parcours de manière plus précise et calculer ainsi la distance parcourue avec une meilleure précision. Mais cette distance ne changera pas de manière explicite en fonction de la résolution. Il n’en est pas de même dans d’autres situations, en particulier pour les systèmes quantiques » (Da Rocha, 2004, p. 5). Cette propriété est caractéristique d’objets mathématiques connus : les fractales. Tout au long, de cette thèse, le terme fractal devra être entendu comme étant un être ou un objet qui présentent des structures à toutes les échelles. Ce qui signifie qu’il existe une structure géométrique différente lorsque l’on passe d’une échelle à une autre (Eckert, 1921 ; Cuénin, 1972 ; Béguin et Pumain, 1994).

  • Principe de relativité d'échelle

    Le principe de la relativité d’échelle se formule alors : « les lois de la nature sont valables pour tous les systèmes de coordonnées, quel que soit leur état d’échelle » (Nottale, 1998). C’est donc une formulation complémentaire à la relativité du mouvement, car si ce dernier reste le principal objet de la physique, l’échelle est un problème que l’on rencontre quelle que soit la discipline, et principalement la géographie qui, depuis la formalisation d’Yves Lacoste (1976) a largement compris l’intérêt d’une analyse multi-échelle. Certes, l’analyse multi-scalaire qu’Yves Lacoste avait conçue, était essentiellement littéraire, et il n’a pas eu besoin des fractales, en tant qu’objet mathématique, pour arriver à décrire des emboîtements d’échelle. Toutefois, elle correspond parfaitement à la philosophie de la géométrie fractale.

    Si l’échelle permet de comprendre l’émergence des limites d’un objet à une échelle donnée, elle apporte aussi un nouvel éclairage sur la définition d’un objet ou d’un espace en géographie.

3.3.2.2. Objet ou espace géographique ?

    En géographie, un problème de définition existe entre objet localisé et l’espace dans lequel il est plongé (Maby, 2003). En réalité, seule une position relativiste permet de distinguer les deux. Un objet est toujours caractérisé de l’extérieur (Figure 10.a.).

Objet ou espace
Figure 10. Objet ou espace

Dans la Figure 10.a., l’objet est l’aire de forme tortueuse, et pour la mesurer on est obligé de se munir d’un repère placé à l’extérieur de celui-ci, ce qui revient à comprendre que sans information provenant de l’extérieur de l’objet, on ne peut pas savoir que l’on se trouve sur cet objet.

    A contrario, un espace est toujours caractérisé de l’intérieur (Figure 10.b.), c’est-à-dire qu’aucun point extérieur n’est nécessaire pour le définir. Le repère fondamental est donc interne à l’objet. La capacité de se placer dans un repère interne à l’objet fait partie de la méthode (ou du mode de pensée) relativiste. Autrement dit, on peut savoir, par un raisonnement purement géométrique, que l’on est sur un objet particulier sans caractérisation extérieure. L’analyse spatiale a donc souvent adopté une position relativiste sans le savoir (Parrochia, 2006). Prenons un exemple simple : le réseau urbain. Pour voir la répartition des villes (les objets), il faut bien une référence pour les percevoir : une région administrative, un pays, etc. (territoire ou espace). Les villes sont caractérisées dans un extérieur appelé région administrative, par exemple, mais celle-ci est bien définie de l’intérieur dans le sens où ce n’est pas n’importe quoi, elle a un contenu, une identité, et rien ne pourra y changer.

3.3.2.3. Espace géographique fractal

    Un des problèmes majeurs de la fractalité était une impossibilité de caractériser une fractale de l’intérieur. La position relativiste était donc impossible. C’est alors qu’intervient le physicien Laurent Nottale qui montra comment caractériser la courbe de Van Koch de l’intérieur grâce à une base 4 de numération (Nottale et Schneider, 1984). Depuis, Laurent Nottale fabriqua sans relâche de nouveaux espaces fractals extrêmement généraux (1992 ; 1993).

    De grief, le rapport échelle - limite conduit naturellement à la question des formes optimales. Qu’est-ce qu’une forme optimale ? Peut-on définir l’échelle comme un élément clé à optimiser ? Existe-t-il des formes optimales en géographie humaine ? Existe-t-il des formes optimales en géographie physique ?

3.3.3. Les formes optimales

    Les formes optimales sont très difficiles à définir. Qu’est-ce qu’être optimal ? être optimal par rapport à quoi ? En effet, juger si une organisation spatiale est optimale reste très arbitraire ? Les échelles peuvent-elles être un critère d’optimalité ?

3.3.3.1. Définition de l'optimisation

    La forme, grâce à son existence géométrique et topologique, pose inévitablement la question de son optimisation. Existe-t-il une organisation spatiale optimale ? Tel est souvent formulé le problème. Pourtant, il n’y a pas de question plus maladroite que celle-ci. En effet, une forme optimale ne peut l’être qu’en fonction d’un ou de plusieurs paramètres. Par exemple, un cercle minimise la distance par rapport à la surface. L’optimalité a par conséquent besoin de critères pour exister. Dans ce cas, toutes les formes euclidiennes ou fractales sont potentiellement optimales. Pourtant, le concept d’optimalité a fait son chemin dans les sciences humaines. On trouve aujourd’hui le terme partout.

    Les concepts d’optimalité et d’optimisation ont besoin d’être défini car ils n’ont fait qu’une timide apparition en géographie (Martin, 1991 ; 2004 ; Pumain, Robic, 2002). D’abord, il faut rappeler que l’optimisation est une branche récente des mathématiques (Hiriart-Urruty, 1996). De plus, le terme « optimisation » est récent dans les dictionnaires français. Il faut ajouter à cela le fait que les termes « optimalisation » et « optimaliser » sont désuets. Le retour de ces concepts dans le langage scientifique marque un profond intérêt pour la question, mais surtout un besoin de définir de nouveau ces termes.

    « Optimiser » est un terme neutre. Il désigne à la fois « minimiser » et « maximiser ». Actuellement, on associe, à tort, l’optimisation à la minimisation à cause, sans doute des développements économiques sur le sujet (Hiriart-Urruty, 1996). Toutefois, le principe d’optimisation en mathématique correspond à une annulation de la dérivée.

    Traditionnellement, un problème d’optimisation se résume en trois composantes majeures :

  1. il faut des variables d’état (ou des paramètres)

  2. il faut des contraintes sur ces paramètres. Cependant, il faut noter que les contraintes peuvent être facultatives, dans ce cas, on parlera d’optimisation sans contraintes ;

  3. il faut un ou des critères pour optimiser ces variables d’état : ce sont les conditions d’optimalité, conditions sans lesquelles le problème d’optimisation n’existe pas.

    Mathématiquement, minimiser f(x) sous la condition x C se formule de la manière suivante :

(P)Chapitre-3_29.gif avec Chapitre-3_30.gif

La fonction f qui, x X, associe la valeur f(x), est le critère. La partie C de X est l’ensemble des contraintes. Si C = X, alors x ne possède aucune contrainte dans son choix. C’est la définition mathématique de l’optimalisation sans contraintes (Hiriart-Urruty, 1996).

3.3.3.2. Optimisation en géographie

    En géographie, l’enseignement de cette définition montre que l’optimisation spatiale n’existe pas en soi. Elle est toujours la résultante d’une action naturelle (par les lois de la physique) ou humaine (par les choix d’aménagement), et de l’organisation du milieu. L’optimisation s’effectue donc toujours par rapport à quelque chose : une entité physique (surface, volume, énergie, etc.) ou une entité anthropique (économie, droit, sociologie, etc.). Autrement dit, une optimisation spatiale se réalise toujours au dépend d’une autre.

    Cela conduit naturellement à s’interroger sur la définition de l’optimisation des formes. L’optimisation de la forme a pour objet la recherche de la meilleure forme possible pour un certain problème (Henrot et Sokolowski, 2003). La définition la plus courante est fondée sur le principe de Pierre-Louis de Maupertuis : « les formes optimales résultent, par définition, de la minimisation d’un chemin, d’un temps de parcours, d’une tension mécanique, d’une énergie, d’une quantité de matériaux, etc. Ce souci d’économie régit la Nature toute entière, aussi n’est-il pas surprenant de trouver des formes optimales partout (Figure 11) » (Octavia, 2005, p. 14-15).

Conditions d'optimalité Formes optimales
Pour un périmètre fixé, la surface est la plus grande Cercle (démontré par Jacob Steiner en 1838)
Minimiser la surface extérieure (donc la perte d'énergie) en maximisant le volume Sphère
Demi-sphère (igloo des esquimaux)
Minimiser la surface extérieure en maximisant le volume et la hauteur Cône (tipi des Indiens) =

\[\frac{hauteur} {rayon} = \sqrt{2}\]

Maximiser le pavage de l'espace en conservant l'équidistance entre les angles et les centres Hexagone régulier
Maximiser la dissipation de l'énergie par rapport à la surface d'échange Méandre
Figure 11. Quelques formes optimales

    Tout cela revient à dire que rechercher une minimisation, c’est trouver quel est l’objectif à atteindre. C’est un « finalisme méthodologique » (Varenne, 2005). Peut-on optimiser la connaissance que l’on vient de trouver ?

    En géographie, l’espace est déjà constitué : il existe une forme de départ qu’il faut améliorer en fonction des besoins anthropiques (Figure 12). Toutefois, cela n’est jamais si simple, car les critères d’optimalité entrent souvent en conflit d’intérêt. Par exemple, si l’on prend l’objet « ville », actuellement, la volonté politique serait de minimiser son périmètre par rapport à sa surface, mais il faut également prendre en compte le réseau intra-urbain afin de minimiser le temps d’accès au centre par rapport à la distance.

Critères d'optimalité Objet géographique à transformer
Minimiser le temps par rapport à la distance
Minimiser le coût par rapport à la distance
Réseau routier
Minimiser la distance par rapport à la surface Réseau hydrographique
Minimiser la surface par rapport au volume Montagne
Minimiser le périmètre par rapport à la surface Limite urbaine
Figure 12. Forme optimale et objets géographiques

3.3.3.3. Échelle comme condition d'optimalité

    Se poser la question de savoir si l’échelle est une condition d’optimalité, revient à s’interroger sur des rapports hiérarchiques. Du moins, c’est souvent de cette manière qu’ont été interprétés les facteurs d’échelle. Par exemple, dans les formes arborescentes (cf. étude sur le réseau hydrographique), la condition d’optimalité est le facteur d’échelle entre les différentes branches de l’arbre. C’est lui qui va définir toute la structure, structure qui est multi-échelle, donc fractale.

    Existe-t-il des échelles optimales ? La relativité d’échelle montre qu’il existe des échelles plus significatives que d’autres que l’on appelle échelle de coupure. Dans cette perspective, ces échelles de coupure sont optimales, mais elles sont aussi relatives. En effet, si la résolution de référence change, l’échelle de coupure existera toujours, mais elle n’a rien d’absolu. Si on réfléchit bien, on s’aperçoit que l’échelle optimale n’existe pas, car, pour l’atteindre, il faudrait avoir une résolution de référence tendant vers zéro, c’est-à-dire l’infini. Cela étant, cette résolution de référence existe forcément et correspond à un nombre réel. Autrement dit, elle est toujours finie donc toujours améliorable. Par conséquent, la quête de la meilleure résolution telle que l’ont engagée beaucoup de géographes est illusoire. Il vaut mieux étudier le lien existant entre les échelles que l’optimisation de ces échelles. D’ailleurs, les fractales sont en règle générale le résultat d’une optimisation sous contraintes « contradictoires ». Par exemple, la forme fractale des poumons correspond à une optimisation du problème suivant : comment augmenter une surface d’échange sans augmenter son volume ?







    Ce chapitre s’est efforcé de montrer que échelles, limites et espace étaient étroitement liées, mais surtout qu’elles étaient relatives. Le problème de l’échelle amène celui de la limite que l’on trace à cette échelle. Le processus d’agrégation en géographie renvoie au M.A.U.P., et plus généralement à la théorie des fractales, et encore plus généralement à la théorie de la relativité d’échelle. Une échelle est toujours relative par rapport à une autre, mais tout objet géographique possède une échelle. Autrement dit, c’est un problème de fond insoluble que l’on rencontre en géographie, mais également dans d’autres disciplines. Aussi, le  cœur de l’analyse spatiale doit donc être l’étude des relations entre les échelles, et non les échelles elles-mêmes et pour elles-mêmes. La théorie mathématique qui étudie ces relations s’appelle la théorie des fractales.







Notes

[1] Attention. Il ne faudra pas confondre l’analyse fractale et l’analyse des formes fractales. La première est une véritable analyse au sens de René Descartes qui est appelé analyse non standard fractale. La seconde est une méthode analytique particulière qui permet de « mesurer » les formes fractales.

[2] Les forces extérieures sont les forces appliquées au système de l’extérieur, tandis que les forces intérieures sont les forces entrant ou évoluant à l’intérieur du système.











Chapitre 4. Structures fractales en géographie



Partie 2. Morphométrie en géographie

Partie 3. Morphométrie et analyse spatio-temporelle en géographie

Étude du cas de la répartition des châteaux dans l’espace géohistorique du nord de la France (Picardie et Artois)

Partie 4. Étude multi-échelle de la répartition de l’établissement humain sur Terre