4/18/2021

REAR WINDOW

 

HITCHCOCK, THE VOYEUR: WHY REAR WINDOW REMAINS THE DIRECTOR'S DEFINITIVE FILM

Hitchcock was a master of obsessive looking and daydreamed about filming acts of sexual voyeurism. In Rear Window, he found a new vision.

4/16/2021

L’intelligence Collective Aujourd’hui

L’intelligence Collective Aujourd’hui


 L’intelligence collective en 1994

Lorsque j’ai publié “L’intelligence Collective” en 1994, le WWW n’existait pas (on ne trouvera d’ailleurs pas le mot “web” dans le livre) et moins d’un pour cent de la population mondiale était connectée à l’Internet. A fortiori, les médias sociaux, les blogs, Google et Wikipedia restaient encore bien cachés dans le monde des possibles et seuls quelques rares visionnaires avaient entr’aperçu leurs contours à travers les brumes du futur. Ancêtres des médias sociaux, les “communautés virtuelles” ne rassemblaient que quelques dizaines de milliers de personnes sur la planète et le logiciel libre, déjà poussé par Richard Stallman au début des années 1980, n’allait décoller vraiment qu’à la fin des années 1990. A cette époque, néanmoins, mon diagnostic était déjà posé: (1) l’Internet allait devenir l’infrastructure principale de la communication humaine et (2) les ordinateurs en réseau allaient augmenter nos capacités cognitives, et tout particulièrement notre mémoire. L’irruption du numérique dans le cours de l’aventure humaine est aussi importante que l’invention de l’écriture ou celle de l’imprimerie. Je le pensais alors et tout le confirme aujourd’hui. On me dit souvent: “vous aviez prévu l’avènement de l’intelligence collective et regardez ce qui s’est passé!” Non, j’ai prévu – avec quelques autres – que l’humanité allait entrer en symbiose avec les algorithmes et les données. Etant donnée cette prédiction, dont on admettra qu’elle se vérifie, je posais la question: quel projet de civilisation devons nous adopter pour exploiter au mieux le médium algorithmique au profit du développement humain? Et ma réponse était : le nouveau médium nous permet, si nous le décidons, d’augmenter l’intelligence collective humaine… plutôt que de poursuivre la tendance lourde à la passivité devant des médias fascinants déjà amorcée avec la télévision et de rester polarisés par la poursuite de l’intelligence artificielle

Art: Emma Kunz “Kaleïdoscopic Vision”

Un quart de siècle plus tard

Après avoir replacé mon “appel à l’intelligence collective” de 1994 dans son contexte, j’aborde maintenant les observations que m’inspirent les développements du dernier quart de siècle. En 2021 65% de l’humanité est connectée à l’Internet et à près de quatre-vingt-dix pour cent en Europe, en Amérique du Nord ainsi que dans la plupart des grandes métropoles. Dernièrement, la pandémie nous a forcés à utiliser massivement l’Internet pour travailler, apprendre, acheter, communiquer, etc. Les savants du monde entier partagent leurs bases de données. Nous consultons tous les jours Wikipedia, qui est l’exemple classique d’une entreprise d’intelligence collective philanthropique qui s’appuie sur le numérique. Les programmeurs partagent leurs codes sur GitHub et s’entraident sur Stack Overflow. Sans toujours en prendre clairement conscience, chacun devient auteur sur son blog, bibliothécaire lorsqu’il – ou elle – tague, étiquette ou catégorise des contenus, curateur en rassemblant des ressources, influenceur sur les médias sociaux et les plateformes d’achat en ligne, et même entraîneur d’intelligence artificielle à son corps défendant puisque nos moindres actes en ligne sont pris en compte par les machines apprenantes. Les jeux multi-joueurs distribués, le crowdsourcing, le journalisme de données et le journalisme citoyen font désormais partie de la vie quotidienne. 

Les éthologues qui étudient les animaux sociaux définissent la communication stigmergique comme une coordination indirecte entre agents via un environnement commun. Par exemple, les fourmis communiquent principalement en laissant sur le sol des traînées de phéromones, et c’est ainsi qu’elles se signalent les chemins qui mènent vers la nourriture. Le surgissement d’une communication stigmergique globale par l’intermédiaire de la mémoire numérique est probablement le plus grand changement social des vingt-cinq dernières années. Nous aimons, nous postons, nous achetons, nous taguons, nous nous abonnons, nous visionnons, nous écoutons, nous lisons et ainsi de suite… Par chacun de ces actes nous transformons le contenu et le système de relations internes de la mémoire numérique, nous entraînons des algorithmes et nous modifions le paysage de données dans lequel évoluent les autres internautes. Cette nouvelle forme de communication par lecture-écriture distribuée dans une mémoire numérique collective représente une mutation anthropologique de grande ampleur qui est généralement peu ou mal perçue. Je reviendrai plus loin sur cette révolution en réfléchissant à la manière de s’en servir comme d’un point d’appui pour augmenter l’intelligence collective.

Mais il me faut d’abord parler d’une seconde transformation majeure, liée à la première, une mutation politique que je n’avais pas prévue en 1994: l’émergence de l’état plateforme. Je ne désigne pas par cette expression l’usage de plateformes numériques par les gouvernements mais le surgissement d’une nouvelle forme de pouvoir politique, qui succède à l’état-nation sans le supprimer. Le nouveau pouvoir est exercé par les propriétaires des principaux centres de données qui maîtrisent de fait la mémoire mondiale. On aura reconnu la fameuse oligarchie sino-américaine des Google, Apple, Facebook, Amazon, Microsoft, Baidu, Alibaba, Tencent et consorts. Non seulement ces entreprises sont les plus riches du monde, ayant dépassé depuis longtemps en capitalisation boursière les fleurons des vieilles industries, mais elles exercent en plus des pouvoirs régaliens classiques: investissement dans les cryptomonnaies échappant aux banques centrales ; contrôle et surveillance des marchés ; authentification des identités personnelles ; infiltration dans les systèmes d’éducation ; établissement des cartes géographiques et du cadastre ; quadrillage des cieux par des réseaux de satellites ; gestion de la santé publique (signalons les bracelets ou autres dispositifs portables, l’enregistrement des conversations chez les médecins et la mémoire épidémiologique dans les nuages). Mais surtout, les seigneurs des données se sont rendus maîtres de l’opinion publique et de la parole légitime : influence, surveillance, censure… Faites attention à ce que vous dites, car vous risquez d’être déplateformés! Enfin, le nouvel appareil politique est d’autant plus puissant qu’il s’appuie sur des ressorts psychologiques proches de l’addiction. Plus les utilisateurs deviennent dépendants du plaisir narcissique ou de l’excitation procurés par les médias sociaux et autres attracteurs d’attention, plus ils produisent de données et plus ils alimentent la richesse et le pouvoir de la nouvelle oligarchie.

Face à ces nouvelles formes d’asservissement, est-il possible de développer une stratégie émancipatrice adaptée à l’ère numérique? Oui, mais sans nourrir l’illusion que nous pourrions en finir une bonne fois pour toutes avec le côté obscur par quelque transformation radicale. Comme le dit Albert Camus à la fin de son essai de 1942 Le Mythe de Sysiphe ” La lutte elle-même vers les sommets suffit à remplir un cœur d’homme. Il faut imaginer Sisyphe heureux.” Augmenter l’intelligence collective est un travail toujours à reprendre et à approfondir. Maximiser simultanément la liberté créatrice et l’efficacité collaborative relève de la performance en contexte et ne dépend pas d’une solution technique ou politique définitive. Il reste que, lorsque les conditions culturelles et techniques que je vais maintenant évoquer seront remplies, la tâche sera plus facile et les efforts pourront converger. 

La dialectique de l’homme et de la machine

Revenons à l’interaction stigmergique par l’intermédiaire du médium algorithmique. La communication entre les êtres humains se fait de plus en plus par l’intermédiaire de machines au cours d’un processus distribué de lecture-écriture dans une mémoire numérique commune. Deux pôles interagissent ici: les machines et les humains. Les machines sont évidemment déterministes, que ce déterminisme soit logique (les algorithmes ordinaires, les règles de l’IA dite symbolique) ou statistique (l’apprentissage machine, l’IA neuronale). Les algorithmes d’apprentissage machine peuvent évoluer avec les flots de données qui les alimentent, mais cela ne les fait pas échapper au déterminisme pour autant. Quant aux humains, leur comportement n’est déterminé et prévisible qu’en partie. Ce sont des animaux sociaux conscients qui jouent à de multiples jeux, que traversent toutes les émotions, qui manifestent autonomie, imagination et créativité. La grande conversation humaine exprime une infinité de nuances au cours d’un processus d’interprétation en boucle fondamentalement ouvert. Bien entendu, ce sont les humains qui produisent et utilisent des machines, machines qui appartiennent donc pleinement au monde de la culture. Mais il reste que – d’un point de vue éthique, légal ou existentiel – les humains ne sont pas des machines déterministes logico-statistiques. D’un côté la liberté du sens, de l’autre la nécessité mécanique. Or force est de constater aujourd’hui que les humains gardent mémoire, interprètent et communiquent par l’intermédiaire de machines. Dans ces conditions, l’interface humain-machine ne se distingue plus qu’à peine de l’interface humain-humain. Cette nouvelle situation provoque une foule de problèmes dont les interprétations hors contexte, les traductions sans nuances, les classements grossiers et les difficultés de communication ne sont que les symptômes les plus visibles, alors que le mal profond réside dans un défaut d’autonomie, dans l’absence de contrôle sur le technocosme à l’échelle personnelle ou collective. 

Réfléchissons maintenant à notre problème d’interface. Le meilleur médium de communication entre humains reste la langue, avec la panoplie de systèmes symboliques qui l’entourent, de la musique à l’expression corporelle en passant par l’image. C’est donc la langue, orale ou écrite, qui doit jouer le rôle principal dans l’interface humain-machine. Mais pas n’importe quelle langue: un idiome qui soit adéquat à la multitude des jeux sociaux, à la complexité des émotions, à la nuance expressive et à l’ouverture interprétative du côté humain. Pourtant, du côté machine, il faut que cette langue donne prise aux règles logiques, aux calculs arithmétiques et aux algorithmes statistiques. C’est pourquoi j’ai passé les vingt dernières années à concevoir une langue humaine qui soit aussi un langage machine : IEML. Le biface du noolithique se tourne d’un côté vers la générosité du sens et de l’autre vers la rigueur mathématique. Un tel outil nous donnera prise sur notre environnement technique (programmer et contrôler les machines) aussi facilement que nous communiquons avec nos semblables. En sens inverse, il synthétisera les flots de données qui nous concernent par des diagrammes explicatifs, des paragraphes compréhensibles, voire des messages multimedia empathiques. Bien plus, cette nouvelle couche techno-cognitive nous permettra de dépasser la communication stigmergique plus ou moins opaque que nous entretenons par l’intermediaire de la mémoire numérique commune pour atteindre une intelligence collective réflexive.

Vers une intelligence collective réflexive

Des images, des sons, des odeurs et des lieux balisent la mémoire humaine, comme celle des animaux. Mais c’est le langage qui unifie, ordonne et réinterprète à volonté notre mémoire symbolique. La chose est vraie non seulement à l’échelle individuelle mais aussi à l’échelle collective, par la transmission des récits et l’écriture. Grâce au langage, l’humanité a pu accéder à l’intelligence réflexive. Par analogie, je pense que nous n’accèderons à une intelligence collective réflexive qu’en adoptant une langue adéquate à l’organisation de la mémoire numérique.

Examinons les conditions nécessaires à l’avènement de cette nouvelle forme de réflexion critique à grande échelle. Puisque la cognition sociale doit pouvoir s’observer elle-même, nous devons modéliser des systèmes humains complexes et rendre ces modèles aisément navigables. À l’image des groupes humains en interaction, ces représentations numériques seront alimentées par des sources de données hétérogènes organisées par des logiques disparates. Nous devons d’autre part donner à lire des processus de pensée dynamiques, de type conversationnel, où les formes émergent, évoluent et s’hybrident, comme dans la réalité de nos écosystèmes d’idées. De plus, puisque nous voulons optimiser nos décisions et coordonner nos actions, il nous faut rendre compte de relations causales, éventuellement circulaires et entrelacées. Enfin, nos modèles doivent être comparables, interopérables et partageables, sans quoi les images qu’ils nous renverraient n’auraient aucune objectivité. Nous devons donc accomplir dans la dimension sémantique ce qui a déjà été mené à bien pour l’espace, le temps et diverses unités de mesure: établir un système de coordonnées universel et régulier qui favorise la modélisation formelle. Ce n’est que lorsque ces conditions seront remplies que la mémoire numérique pourra servir de miroir et de multiplicateur à l’intelligence collective humaine. La puissance d’enregistrement et de calcul de la nuagique rend désormais cet idéal atteignable et le système de coordonnées sémantique (IEML) est déjà disponible.

Dans le labyrinthe de la mémoire

Jusqu’à l’invention de l’imprimerie à caractères mobiles par Gutenberg, l’une des parties les plus importantes de la rhétorique était l’art de la mémoire. Il s’agissait d’une méthode mnémotechnique dite « des lieux et des images ». L’orateur en herbe devait s’entraîner à la représentation mentale d’un espace architectural – réel ou imaginaire – de grande envergure, comme par exemple un palais ou un temple, voire une place, où seraient disposés plusieurs bâtiments. Les idées à mémoriser devaient être représentés par des images placées dans les lieux de l’architecture palatiale. C’est ainsi que les fenêtres, niches, pièces et colonnades du palais (les « lieux ») étaient peuplés de personnages humains porteurs de caractères émotionnellement et visuellement frappants, afin d’être mieux retenus (les « images »). Les relations sémantiques entre les idées étaient d’autant mieux mémorisées et utilisées qu’elles étaient représentées par des relations locales entre images. 

A partir du XVIe siècle en Occident, la crainte d’oublier cède le pas à l’angoisse d’être noyé dans la masse des informations imprimées. Aux arts de la mémoire adaptés aux époques de l’oral et du manuscrit, succède l’art d’organiser les bibliothèques. On découvre alors que la conservation de l’information ne suffit pas, il faut la classer et la placer (les deux choses vont de pair avant le numérique) de telle sorte que l’on trouve facilement ce que l’on cherche. Au plan du palais imaginaire succède la disposition des rayons et des étagères de la bibliothèque. La distinction des données (livres, journaux, cartes, archives de toutes sortes) et des métadonnées s’affirme au début du XVIIIe siècle. Le système de métadonnées d’une bibliothèque comporte essentiellement le catalogue des documents entreposés et les fiches cartonnées classées dans des tiroirs qui donnent, pour chaque item: son auteur, son titre, son éditeur, sa date de publication, son sujet, etc. Sans oublier la cote qui indique le lieu précis où le document est rangé. Ce dédoublement des données et des métadonnées a d’abord lieu bibliothèque par bibliothèque, chacune avec son propre système d’organisation et son vocabulaire local. Un nouveau degré dans l’abstraction et la généralisation est franchi au XIXe siècle avec l’avènement de systèmes de classification à vocation universelle, qui s’appliquent à un grand nombre de bibliothèques et dont le système “décimal” de Dewey est l’exemple le plus connu. 

Avec la transformation numérique qui commence à la fin du XXe siècle, la distinction entre données et métadonnées n’a pas disparu, mais elle ne se déploie plus dans un espace physique à l’échelle humaine. Dans une base de données ordinaire, chaque champ correspond à une catégorie générale (le nom du champ est une sorte de métadonnée, comme par exemple “adresse”) tandis que la valeur du champ “8, rue du Petit Pont” correspond à une donnée. Sur les tableaux Excel, les colonnes correspondent en fait aux métadonnées et le contenu des cellules aux données. Dans une base de données dite relationnelle le système de métadonnées n’est autre que le schéma conceptuel qui préside à sa structuration. Chaque base de données possède évidemment son propre schéma, adapté aux besoins de son utilisateur. Les bases de données classiques ont d’ailleurs été conçues avant l’Internet, quand il était bien rare que les ordinateurs communiquent. Tout change avec l’adoption massive du Web à partir de la fin du XXe siècle. En un sens, le Web est une grande base de données virtuelle distribuée dont chaque item possède une adresse ou une “cote”: l’URL (Uniform Resource Locator), qui commence par http:// (Hypertext Transfer Protocol). Ici encore, les métadonnées sont intégrées aux données, par exemple sous la forme de tags. Le Web faisant potentiellement communiquer toutes les mémoires, le disparate des systèmes de métadonnées locaux ou des folksonomies improvisées (tels que les hashtags utilisés dans les médias sociaux) devient particulièrement criant.

Mais l’abstraction et le décollement des métadonnées expérimentés par les bibliothèques au XIXe siècle est réinventé dans le numérique. Une même ontologie ou un modèle conceptuel particulier peut être utilisé pour structurer des données différentes tout en favorisant la communication entre différentes mémoires. Les modèles tels que schema.org, soutenu par Google, ou CIDOC-CRM, développé par les institutions de conservation des héritages culturels en sont de bons exemples. La notion de métadonnée sémantique, élaborée dans le milieu de l’intelligence artificielle symbolique des années 1970 est popularisée par le projet du Web Sémantique lancé par Tim Berners Lee dans la foulée du succès du Web. Ce n’est pas ici le lieu d’expliquer l’échec relatif de ce dernier projet. Contentons-nous de signaler que les contraintes rigides imposées par les formats standards du World Wide Web Consortium ont découragé ses utilisateurs potentiels. La notion d’ontologie cède aujourd’hui la place à celle de Graphe de Connaissance (Knowledge Graph) dans lequel on accède à des ressources numériques au moyen d’un modèle de données et d’un vocabulaire contrôlé. Dans cette dernière étape de l’évolution de la mémoire, les données ne sont plus contenues dans les schémas tabulaires fixes des bases de données relationnelles mais dans les nouvelles bases de données de graphes, plus souples, plus faciles à faire évoluer, mieux à même de représenter des modèles complexes et autorisant plusieurs “vues” différentes. Un graphe de connaissance se prête au raisonnement automatique (IA symbolique classique), mais aussi à l’apprentissage automatique s’il est bien conçu et si les données sont en nombre suffisant. 

Aujourd’hui encore, une grande partie de la mémoire numérique se trouve dans des bases relationnelles, sans distinction claire des données et des métadonnées, organisée selon des schémas rigides mutuellement incompatibles, mal optimisée pour les besoins de connaissance, de coordination ou d’aide à la décision de leurs utilisateurs. Réunies dans des entrepôts communs (datalakes, datawarehouses), ces données indexées ou cataloguées selon des systèmes de catégories disparates mènent parfois à des représentations ou des simulations incohérentes. La situation dans le monde encore minoritaire des knowledge graphs est certes plus brillante. Mais de nombreux problèmes demeurent : il est encore bien difficile de faire communiquer des langues, des domaines d’affaire ou des disciplines différentes. Si la visualisation de l’espace (projection sur des cartes), du temps (frises chronologiques) et des quantités est entrée dans les moeurs, la visualisation de structures qualitatives complexes (comme les actes de langage) reste un défi, et cela d’autant plus que ces structures qualitatives sont essentielles pour la compréhension causale des systèmes humains complexes. 

Il nous faut produire encore un effort pour transformer la mémoire numérique en support d’une intelligence collective réflexive. Une intelligence collective autorisant tous les points de vue, mais bien coordonnée. Il suffit pour cela de reproduire à une hauteur supplémentaire le geste d’abstraction qui a mené à la naissance des métadonnées à la fin du XVIIIe siècle. Dédoublons donc les métadonnées en (a) modèles et (b) métalangage. Les modèles pourront être aussi nombreux et riches que l’on voudra, ils communiqueront – avec les langues naturelles, les humains et les machines – par l’intermédiaire d’un métalangage commun. Dans la bibliothèque de Babel, il est temps d’allumer la lumière.

Dossier Sibelius (II) : une oeuvre contrastée

 

Dossier Sibelius (II) : une oeuvre contrastée

 par 

Suite de notre évocation de Jean Sibelius sous la plume d'Harry Halbreich avec un panorama de son oeuvre hors de son corpus des symphonies.

Sibelius n’a écrit qu’un seul concerto immensément populaire, pour son propre instrument, le violon, et c’est un quasi chef-d’œuvre au seuil de la maturité (1903-1904), dont le vaste premier mouvement est sans doute le plus parfait et plus pleinement original que les deux suivants. Mais on a grand tort d’ignorer les Six Humoresques pour violon et (petit) orchestre (1917-1918), véritables joyaux d’une virtuosité étincelante, dans le style de la haute maturité sibélienne, et non loin desquelles on situera les deux Sérénades de 1912-1913, de même formation.

Il y a ensuite une bonne douzaine de partitions de musique de scène (Sibelius ne composa qu’un bref opéra de jeunesse d’importance secondaire, essai sans lendemain), parmi lesquelles on pourra négliger Kuolema (La Mort) qui contient l’illustre Valse Triste, pour s’attacher plutôt aux pages délicates de Pelléas et Mélisande (1905), pièce de Maeterlinck que le compositeur a donc illustré après Fauré, Debussy et... Schönberg !, ou du Cygne Blanc de Strindberg (1907), mais surtout la très importante partition pour La Tempête de Shakespeare (1925), fruit de la suprême maturité sibélienne (entre la Septième Symphonie et Tapiola), plus d’une heure de musique dont le stupéfiant Prélude, entièrement atonal, d’une puissance titanesque.

Il ne saurait être question de citer ici les innombrables cantates, pas toutes patriotiques, avec orchestre ou a cappella, en grande partie pour chœurs d’hommes, mais on ne saurait oublier qu’il existe des orchestrations originales d’une douzaine des plus grandes mélodies de Sibelius. C’est un domaine où il a été particulièrement fécond, avec une bonne centaine de pièces, en grande majorité sur paroles suédoises (sa langue maternelle) bien que Luonnotar, déjà cité, soit en finnois. Des pages comme Jubal et Theodora (op.35), comme les Deux mélodies d’après Shakespeare (op. 60) et peut-être par-dessus tout comme les trois premières de l’opus 38 Höstkväll (Soir d’automne), Pa verandat vid havet (Sur un balcon au-dessus de la mer) et I Natten (Dans la Nuit) comptent au nombre des plus hautes inspirations de Sibelius et des chefs-d’œuvre de tout l’art vocal.

Longtemps négligée, voire méprisée, l’abondante production pianistique de Sibelius, due en grande partie à des préoccupations alimentaires, bien que rarement attrayante pour les pianistes, contient elle aussi quelques chefs-d’œuvre, comme les Trois Sonatines et les deux Rondinos (1912) datant de l’époque “expérimentale” de la Quatrième Symphonie, et les énigmatiques 5 Esquisses op. 114 (1929), les dernières de toutes, publiées en 1973 seulement, prémonitions frustrantes de l’inaccessible Huitième Symphonie...

Sibelius, on le sait trop peu, n’a composé pratiquement que de la musique de chambre avant Kullervo, soit jusqu’en 1891, et il y en a beaucoup, dont déjà des œuvres aussi accomplies que le Quatuor à cordes en la mineur, le deuxième des quatre qu’il écrivit (1889). Parmi les nombreuses pages pour violon et piano, aussi “alimentaires” que celles pour piano seul, se détache la délicate Sonatine op. 80 de 1915, contemporaine de la Cinquième Symphonie, bientôt des Humoresques. Mais le chef-d’œuvre solitaire de la musique de chambre sibélienne, c’est le Quatuor à cordes en ré mineur op. 56, dit “Voces intimae” (1909), l’égal des plus grands du début du 20e siècle, annonciateur de la Quatrième Symphonie (peut-être conçue à l’origine comme un quatuor elle aussi !). Quel dommage que Sibelius ne nous ait pas laissé l’équivalent de Beethoven dans ce domaine. Mais il semble qu’au 20e siècle, très peu de compositeurs (Chostakovitch, Martinu...) aient pu mener de front la Symphonie et le Quatuor...

Avant de prendre congé de Sibelius, consolons-nous un peu en savourant un délicat joyau pour petit orchestre à cordes que j’ai oublié de vous citer : la suite Rakastava (1912, remaniement d’un cycle choral très antérieur).

Harry Halbreich

Crédits photographiques : Akseli Gallen-Kallela

https://www.crescendo-magazine.be/dossier-sibelius-i-les-symphonies/

LA GUERRE DES RÊVES

 Le tout fictionnel


Dans "La guerre des rêves", Marc Augé alerte contre ce qui lui paraît être une "crise du sens", c'est-à-dire des symboles et des institutions, dont les causes ont un commun dénominateur, une perturbation du rapport au réel, devant laquelle l'anthropologie a vocation de s'interroger. Écrit à la fin du 20è siècle (1997), le livre retentit d'autant que les phénomènes à la source de cette inquiétude sont plus nets aujourd'hui et la crise pleinement confirmée.
 
Pour cette enquête sur l'invasion du réel par la fiction, l'anthropologue s'est intéressé aux images et à la manière dont elles prennent sens à l'intérieur de systèmes symboliques partagés, notamment comment elles se reproduisent et se modifient à travers l'activité rituelle (chaman Yaruro-Pumé). Il a analysé les perpétuelles interactions entre l'imaginaire individuel et les représentations symboliques collectives, telle la production d'images et d'objets (fétiches, statuettes) qui induisent du lien social. Il a aussi fallu étudier les résistances et les espoirs de l'imaginaire religieux des peuples lors des conquêtes et colonisations.

Un sujet complexe qui recourt à l'anthropologie historique afin d’étudier les actions menées par l'Église contre les païens en Europe et lors des colonisations en Amérique latine (le titre du présent ouvrage est inspiré par ce dernier thème que traite Serge Gruzinski dans "La guerre des images").
 
En outre, les rapports de l'image avec le rêve, la rêverie, la création et la fiction nécessitent de faire appel à la psychanalyse et à la sémiologie.

Une clé pour comprendre cet essai peut être la conclusion de la première partie consacrée à la perception de l'autre :"... tant que la dialectique identité/altérité fonctionne, une affirmation d'appartenance à une collectivité ne peut être conçue ni comme exclusive d'autres appartenances ni comme exclusive de l'affirmation d'identité individuelle. Mais cette dialectique est enrayée aussi bien par les effets de dissolution imputables aux technologies surmodernes[*] que par les effets de glaciation induits par le repli sur les appartenances exclusives. Que la relation au monde se fige ou se virtualise, elle soustrait l'identité à l'épreuve de l'altérité. Elle crée ainsi les conditions de la solitude et risque d'engendrer un moi aussi fictif que l'image qu'il se fait des autres." (p 44) 

Toutes les sociétés sans exclusion ont vécu grâce à l'imaginaire et par les rapports dynamiques qui s'établissent entre les imaginaires individuel et collectif. Le schéma de base sur lequel repose le propos de Marc Augé est le triangle qui lie imaginaire collectif (IMC), imaginaire individuel (IMI) et création/fiction (CF). 
L'époque contemporaine affectée par la surmodernité[*] manifeste un nouveau régime de fiction qui, selon Augé, pose problème.
On a vu, sous l'influence de l'Église catholique, l'imaginaire collectif païen glisser vers la fiction et être remplacé par les représentations du christianisme. Puis, lors de ce qu'on appelle la phase de désenchantement, les grands récits de la modernité (révolution française par exemple) ont gagné l'imaginaire collectif, reléguant le christianisme dans la fiction. 
Mais aujourd'hui les récits de la modernité sont eux aussi happés par le pôle de la fiction et rien ne vient à la place de l'imaginaire collectif : l'individu n'a plus en face de lui que la fiction, mais cette dernière a aussi changé car elle n'échange plus avec un imaginaire collectif.
La nouvelle fiction, que l'anthropologue nomme fiction-image, se situe à mi-distance des anciens pôles IMC et CF, comme si l'un et l'autre avaient glissé vers une position d'équilibre. Le moi qui occupe désormais l'ancien pôle de l'imaginaire et de la mémoire individuels (IMI) peut être dit fictionnel, car il est "incessamment menacé par la fiction-image qui se présente à la fois comme imaginaire collectif et comme fiction alors qu'elle doit son existence à leur élimination, à la disparition simultanée de l'histoire [IMC] et de l'auteur [CF]." (p 157)

Ceci est évidemment très schématique et répond à des situations extrêmes. 

Le développement des technologies utilisées à des fins politiques et économiques entraîne la libération d'une "forme dévoyée d'imaginaire". Quelques observations concrètes.

Marc Augé pointe la télévision, quotidienne et familière, avec son côté liturgique et ses possibilités d'identification et d'hallucination plus insidieuses que le cinéma ; ses fictions sont des copies conformes de la réalité (scènes d'audiences judiciaires par exemple) ; la succession sans rupture des actualités avec un "chatoiement planétaire soumis au contrôle de la télécommande". Avec le petit écran, "la frontière entre réel et fiction se fait moins nette et l'auteur, même s'il existe, est absent de la conscience du téléspectateur" (p 165).

Le tourisme de masse et le tourisme virtuel poursuivent l'entreprise de fictionnalisation. On fait un voyage de loisirs pour revenir avec une vidéo de souvenirs. Visiter le Mont Saint-Michel revient à longer des marchands d'images où le mont est mis en scène et raconté par des artistes connus. Le monde de Disney : portée à l'écran, la fiction revient sur terre pour se faire visiter. Les parcs d'amusement, clubs de vacances, Center Parcs, villes privées en Amérique et résidences fortifiées dans les villes du tiers monde sont des bulles d'immanence, équivalents fictionnels des cosmologies, explique Marc Augé. Elles sont plus tangibles et lisibles mais il leur manque une symbolique, un mode prescrit de relation aux autres et un système d'interprétation de l'événement. Elles ne sont que parenthèses ouvertes et fermées à discrétion. 

Au moment de ce livre qui évoque le Fax et l'internet avec des interlocuteurs sans visage, il n'était pas encore questions des réseaux sociaux tels qu'aujourd'hui. Marc Augé pointait le danger des relations établies à travers les médias, dont il n'est pas question de nier l'utilité ni l'originalité, mais qui peuvent relever d'un déficit symbolique, d'une difficulté à créer du lien social in situ. "Le moi fictionnel, comble d'une fascination qui s'amorce dans toute relation exclusive à l'image, est un moi sans relations et du même coup sans support identitaire, susceptible d'absorption par le monde d'images où il croit pouvoir se retrouver et se reconnaître." (p 175)

L'essai est une mise en perspective théorique, scientifique, de faits préoccupants que nous percevons peut-être intuitivement mais sans les appréhender en profondeur. Bien que le livre soit court (180 pages), il est dense, parfois fastidieux, et ne peut être considéré comme orienté grand public. Espérons que ce compte rendu en esquisse correctement l'essentiel.


[*] La surmodernité selon Marc Augé (source wikipédia) :
  • «surabondance événementielle» : l'époque actuelle produit un nombre croissant d'événements que les historiens peinent à interpréter.
  • la «surabondance spatiale», qui correspond aussi bien à la possibilité de se déplacer très vite et partout qu'à l'omniprésence, au sein de chaque foyer, d'images du monde entier. 
  • l'«individualisation des références», c'est-à-dire la volonté de chacun d'interpréter par lui-même les informations dont il dispose, et non de se reposer sur un sens défini au niveau du groupe.
 Marc Augé alerte contre ce qui lui paraît être une "crise du sens", c'est-à-dire des symboles et des institutions, dont les causes ont un commun dénominateur, une perturbation du rapport au réel, devant laquelle l'anthropologie a vocation de s'interroger. Écrit à la fin du 20è siècle (1997), le livre retentit d'autant que les phénomènes à la source de cette inquiétude sont plus nets aujourd'hui et la crise pleinement confirmée.
 
Pour cette enquête sur l'invasion du réel par la fiction, l'anthropologue s'est intéressé aux images et à la manière dont elles prennent sens à l'intérieur de systèmes symboliques partagés, notamment comment elles se reproduisent et se modifient à travers l'activité rituelle (chaman Yaruro-Pumé). Il a analysé les perpétuelles interactions entre l'imaginaire individuel et les représentations symboliques collectives, telle la production d'images et d'objets (fétiches, statuettes) qui induisent du lien social. Il a aussi fallu étudier les résistances et les espoirs de l'imaginaire religieux des peuples lors des conquêtes et colonisations.

Un sujet complexe qui recourt à l'anthropologie historique afin d’étudier les actions menées par l'Église contre les païens en Europe et lors des colonisations en Amérique latine (le titre du présent ouvrage est inspiré par ce dernier thème que traite Serge Gruzinski dans "La guerre des images").
 
En outre, les rapports de l'image avec le rêve, la rêverie, la création et la fiction nécessitent de faire appel à la psychanalyse et à la sémiologie.

Une clé pour comprendre cet essai peut être la conclusion de la première partie consacrée à la perception de l'autre :"... tant que la dialectique identité/altérité fonctionne, une affirmation d'appartenance à une collectivité ne peut être conçue ni comme exclusive d'autres appartenances ni comme exclusive de l'affirmation d'identité individuelle. Mais cette dialectique est enrayée aussi bien par les effets de dissolution imputables aux technologies surmodernes[*] que par les effets de glaciation induits par le repli sur les appartenances exclusives. Que la relation au monde se fige ou se virtualise, elle soustrait l'identité à l'épreuve de l'altérité. Elle crée ainsi les conditions de la solitude et risque d'engendrer un moi aussi fictif que l'image qu'il se fait des autres." (p 44) 

Toutes les sociétés sans exclusion ont vécu grâce à l'imaginaire et par les rapports dynamiques qui s'établissent entre les imaginaires individuel et collectif. Le schéma de base sur lequel repose le propos de Marc Augé est le triangle qui lie imaginaire collectif (IMC), imaginaire individuel (IMI) et création/fiction (CF). 
L'époque contemporaine affectée par la surmodernité[*] manifeste un nouveau régime de fiction qui, selon Augé, pose problème.
On a vu, sous l'influence de l'Église catholique, l'imaginaire collectif païen glisser vers la fiction et être remplacé par les représentations du christianisme. Puis, lors de ce qu'on appelle la phase de désenchantement, les grands récits de la modernité (révolution française par exemple) ont gagné l'imaginaire collectif, reléguant le christianisme dans la fiction. 
Mais aujourd'hui les récits de la modernité sont eux aussi happés par le pôle de la fiction et rien ne vient à la place de l'imaginaire collectif : l'individu n'a plus en face de lui que la fiction, mais cette dernière a aussi changé car elle n'échange plus avec un imaginaire collectif.
La nouvelle fiction, que l'anthropologue nomme fiction-image, se situe à mi-distance des anciens pôles IMC et CF, comme si l'un et l'autre avaient glissé vers une position d'équilibre. Le moi qui occupe désormais l'ancien pôle de l'imaginaire et de la mémoire individuels (IMI) peut être dit fictionnel, car il est "incessamment menacé par la fiction-image qui se présente à la fois comme imaginaire collectif et comme fiction alors qu'elle doit son existence à leur élimination, à la disparition simultanée de l'histoire [IMC] et de l'auteur [CF]." (p 157)

Ceci est évidemment très schématique et répond à des situations extrêmes. 

Le développement des technologies utilisées à des fins politiques et économiques entraîne la libération d'une "forme dévoyée d'imaginaire". Quelques observations concrètes.

Marc Augé pointe la télévision, quotidienne et familière, avec son côté liturgique et ses possibilités d'identification et d'hallucination plus insidieuses que le cinéma ; ses fictions sont des copies conformes de la réalité (scènes d'audiences judiciaires par exemple) ; la succession sans rupture des actualités avec un "chatoiement planétaire soumis au contrôle de la télécommande". Avec le petit écran, "la frontière entre réel et fiction se fait moins nette et l'auteur, même s'il existe, est absent de la conscience du téléspectateur" (p 165).

Le tourisme de masse et le tourisme virtuel poursuivent l'entreprise de fictionnalisation. On fait un voyage de loisirs pour revenir avec une vidéo de souvenirs. Visiter le Mont Saint-Michel revient à longer des marchands d'images où le mont est mis en scène et raconté par des artistes connus. Le monde de Disney : portée à l'écran, la fiction revient sur terre pour se faire visiter. Les parcs d'amusement, clubs de vacances, Center Parcs, villes privées en Amérique et résidences fortifiées dans les villes du tiers monde sont des bulles d'immanence, équivalents fictionnels des cosmologies, explique Marc Augé. Elles sont plus tangibles et lisibles mais il leur manque une symbolique, un mode prescrit de relation aux autres et un système d'interprétation de l'événement. Elles ne sont que parenthèses ouvertes et fermées à discrétion. 

Au moment de ce livre qui évoque le Fax et l'internet avec des interlocuteurs sans visage, il n'était pas encore questions des réseaux sociaux tels qu'aujourd'hui. Marc Augé pointait le danger des relations établies à travers les médias, dont il n'est pas question de nier l'utilité ni l'originalité, mais qui peuvent relever d'un déficit symbolique, d'une difficulté à créer du lien social in situ. "Le moi fictionnel, comble d'une fascination qui s'amorce dans toute relation exclusive à l'image, est un moi sans relations et du même coup sans support identitaire, susceptible d'absorption par le monde d'images où il croit pouvoir se retrouver et se reconnaître." (p 175)

L'essai est une mise en perspective théorique, scientifique, de faits préoccupants que nous percevons peut-être intuitivement mais sans les appréhender en profondeur. Bien que le livre soit court (180 pages), il est dense, parfois fastidieux, et ne peut être considéré comme orienté grand public. Espérons que ce compte rendu en esquisse correctement l'essentiel.


[*] La surmodernité selon Marc Augé (source wikipédia) :
  • «surabondance événementielle» : l'époque actuelle produit un nombre croissant d'événements que les historiens peinent à interpréter.
  • la «surabondance spatiale», qui correspond aussi bien à la possibilité de se déplacer très vite et partout qu'à l'omniprésence, au sein de chaque foyer, d'images du monde entier. 
  • l'«individualisation des références», c'est-à-dire la volonté de chacun d'interpréter par lui-même les informations dont il dispose, et non de se reposer sur un sens défini au niveau du groupe.