Philosophes.org
Structure
  1. En raccourci
  2. Origines et formation précoce
    1. Enfance dans le Michigan rural
    2. Formation universitaire double
  3. Révélation intellectuelle au MIT
    1. Rencontre décisive avec Vannevar Bush
    2. Le mémoire qui fonde l’informatique moderne
    3. Doctorat en génétique théorique
  4. Cryptographie et théorie de l’information
    1. Engagement dans l’effort de guerre
    2. Rencontre avec Alan Turing
    3. L’article fondateur de 1948
  5. Maturité intellectuelle et excentricités
    1. Vie familiale et personnalité
    2. Inventions et contributions diverses
    3. Cryptographie déclassifiée et autres publications
  6. Rayonnement et dernières années
    1. Carrière au MIT
    2. Réception et influence
    3. Honneurs et reconnaissance
    4. Déclin et mort
  7. Postérité et actualité de la pensée
    1. Impact sur le monde numérique
    2. Reconnaissance tardive du grand public
    3. Leçons philosophiques
Philosophes.org
Image fictive de Claude Shannon, mathématicien et ingénieur américain, ne le représentant pas réellement
  • Biographies
  • Philosophie analytique

Claude Shannon (1916–2001) : le fondateur de la théorie de l’information

  • 19/11/2025
  • 12 minutes de lecture
Total
0
Shares
0
0
0

INFOS-CLÉS

OrigineÉtats-Unis (Michigan)
Importance★★★★★
CourantsThéorie de l’information, Philosophie des sciences, Logique mathématique
ThèmesThéorie de l’information, Algèbre de Boole, Circuits numériques, Cryptographie, Entropie informationnelle

Mathématicien et ingénieur électricien américain, Claude Shannon établit les fondements théoriques de l’ère numérique. Son article de 1948 sur la théorie mathématique de la communication transforme radicalement la manière dont l’humanité conçoit, transmet et traite l’information.

En raccourci

Parent éloigné de Thomas Edison, Shannon grandit dans le Michigan où il se passionne pour les dispositifs mécaniques et électriques. À 21 ans, il soutient un mémoire de master au MIT qui démontre comment l’algèbre de Boole permet de concevoir des circuits de commutation, posant ainsi les bases théoriques de l’informatique numérique.

Pendant la Seconde Guerre mondiale, il travaille sur la cryptographie aux Bell Laboratories. En 1948, il publie l’article fondateur qui définit la théorie de l’information, introduisant le concept de bit et quantifiant mathématiquement la notion d’information. Cette révolution conceptuelle influence profondément les télécommunications, l’informatique, la biologie et de nombreuses autres disciplines.

Personnalité excentrique, Shannon est célèbre pour circuler dans les couloirs de Bell Labs sur son monocycle tout en jonglant. Il construit des machines farfelues, développe une théorie mathématique de la jonglerie et et conçoit, avec le mathématicien Edward Thorp, l’un des tout premiers ordinateurs portables, conçu pour battre les casinos à la roulette. Professeur au MIT de 1956 à 1978, il reçoit de nombreuses distinctions dont la National Medal of Science et le prix Kyoto. Il meurt en 2001 après avoir lutté contre la maladie d’Alzheimer.

Origines et formation précoce

Enfance dans le Michigan rural

Le 30 avril 1916, Claude Elwood Shannon naît à Petoskey, une petite ville du Michigan. Sa famille s’installe rapidement à Gaylord, localité de trois mille habitants où il passe les seize premières années de sa vie. Son père, Claude Shannon Sr., exerce les fonctions de juge des tutelles et d’homme d’affaires. Sa mère, Mabel Wolf Shannon, issue d’une famille d’immigrants allemands, enseigne les langues et dirige le lycée de Gaylord. Cette double influence – le pragmatisme paternel et la rigueur intellectuelle maternelle – marque profondément le jeune Claude.

Parent (très) éloigné de Thomas Edison par sa lignée paternelle, Shannon admire dès l’enfance le célèbre inventeur. Il manifeste très tôt une inclination prononcée pour les dispositifs mécaniques et électriques. Dans la maison familiale, il construit des maquettes d’avions, un bateau télécommandé et un système télégraphique reliant sa chambre à celle d’un ami situé à huit cents mètres. Ces premiers bricolages révèlent une capacité à transformer des concepts abstraits en réalisations concrètes.

Formation universitaire double

En 1932, après avoir obtenu son diplôme du lycée de Gaylord, Shannon s’inscrit à l’université du Michigan où sa sœur Catherine vient d’achever un diplôme de mathématiques. Il y suit un double cursus ambitieux en génie électrique et en mathématiques. C’est dans ces années qu’il découvre les travaux du logicien britannique George Boole, dont l’algèbre binaire, conçue dans les années 1840 pour formaliser la logique, va devenir l’instrument de sa première contribution majeure.

Shannon obtient ses deux licences en 1936 avec d’excellents résultats. Fort de cette double formation, il rejoint le Massachusetts Institute of Technology (MIT) pour poursuivre des études supérieures en génie électrique. Cette décision le place au cœur de l’innovation technologique américaine, au moment où le pays commence à développer les premières machines de calcul sophistiquées.

Révélation intellectuelle au MIT

Rencontre décisive avec Vannevar Bush

Au MIT, Shannon obtient un poste d’assistant de recherche auprès de Vannevar Bush, figure éminente de l’ingénierie américaine. Bush a conçu l’analyseur différentiel, calculateur analogique le plus avancé de l’époque, capable de résoudre des équations différentielles grâce à un système complexe d’arbres, d’engrenages et de disques. Shannon a pour mission d’entretenir cette machine et d’y programmer des équations.

Or, l’analyseur différentiel comporte un dispositif de contrôle particulièrement compliqué : un circuit de plus de cent relais électromécaniques dont la conception repose sur des méthodes empiriques. En étudiant ce système, Shannon réalise un élément fondamental : les circuits électriques à relais, qui ne peuvent occuper que deux états (ouvert ou fermé), suivent exactement la même logique que l’algèbre binaire de Boole (vrai ou faux).

Le mémoire qui fonde l’informatique moderne

Durant l’été 1937, Shannon effectue un stage aux Bell Telephone Laboratories à New York, où il approfondit sa compréhension des circuits de commutation téléphonique. De retour au MIT, il rédige son mémoire de master, A Symbolic Analysis of Relay and Switching Circuits, qu’il soutient en août 1937 et publie en 1938. Dans ce travail, il démontre que toute opération logique peut être réalisée par des circuits électriques appropriés, et réciproquement, que tout circuit peut être décrit et optimisé par des équations algébriques.

Les implications de cette thèse sont profondes : il devient possible de concevoir mathématiquement les circuits avant de les construire, plutôt que de procéder par tâtonnements. Shannon présente même des schémas de circuits complets, dont un additionneur binaire à quatre bits. Howard Gardner qualifie plus tard ce travail de « probablement le mémoire de master le plus important du siècle ». Herman Goldstine affirme qu’il « a transformé la conception de circuits numériques d’un art en une science ». Le mémoire vaut à Shannon le prix Alfred Noble en 1940.

Doctorat en génétique théorique

Impressionné par les capacités de son étudiant, Vannevar Bush lui suggère d’appliquer des méthodes similaires à un autre domaine : la génétique mendélienne. En 1939, Bush devient président de la Carnegie Institution of Washington, qui finance le laboratoire de Cold Spring Harbor. Il y envoie Shannon passer l’été sous la direction de Barbara Burks, généticienne de renom.

Shannon produit une thèse de doctorat en mathématiques intitulée An Algebra for Theoretical Genetics, soutenue en 1940. Il y développe une notation algébrique pour décrire l’évolution des fréquences génétiques dans une population soumise à l’accouplement aléatoire. Bien que contenant des résultats originaux, notamment une formule générale pour la distribution de plusieurs traits liés après plusieurs générations, cette thèse reste relativement méconnue. Shannon lui-même perd rapidement intérêt pour le sujet et ne publiera jamais son travail, malgré les encouragements insistants de Bush et Burks.

Cryptographie et théorie de l’information

Engagement dans l’effort de guerre

Après l’obtention de son doctorat en 1940, Shannon devient chercheur à l’Institute for Advanced Study de Princeton, où il côtoie brièvement Albert Einstein et Kurt Gödel. Dès 1941, il rejoint les Bell Laboratories pour participer à l’effort de guerre américain. Il travaille sur des systèmes de contrôle de tir antiaérien, dispositifs essentiels lors des bombardements allemands sur l’Angleterre.

Plus significativement, Shannon est affecté à des recherches cryptographiques hautement classifiées. Il étudie les systèmes de chiffrement, notamment le système SIGSALY qui sécurise les communications radio-téléphoniques entre le président Roosevelt et Winston Churchill. En septembre 1945, il rédige un mémorandum technique confidentiel, A Mathematical Theory of Cryptography, qui analyse mathématiquement les conditions de sécurité parfaite d’un cryptosystème. Il y démontre que le masque jetable (one-time pad) constitue le seul système théoriquement inviolable, à condition que la clé soit véritablement aléatoire, aussi longue que le message, jamais réutilisée et gardée secrète.

Rencontre avec Alan Turing

Au début de 1943, Shannon rencontre Alan Turing pendant deux mois. Le mathématicien britannique est venu à Washington partager avec la marine américaine les méthodes utilisées à Bletchley Park pour décrypter les codes allemands. Turing travaille également sur le chiffrement de la parole et visite les Bell Labs à cette occasion. Les deux hommes, qui partagent une passion pour les machines intelligentes et les échecs, discutent longuement. Cette rencontre, bien que brève, établit un lien entre deux des esprits les plus brillants du siècle.

L’article fondateur de 1948

En juillet et octobre 1948, Shannon publie dans le Bell System Technical Journal un article en deux parties : A Mathematical Theory of Communication. Ce texte, qualifié de « Magna Carta de l’ère de l’information » par Scientific American, révolutionne la conception même de l’information. Avant Shannon, l’information désigne confusément des mots, des images, des sons. Shannon la définit de manière quantifiable : l’information est ce qui réduit l’incertitude.

Il introduit la notion d’entropie informationnelle, mesurant la quantité moyenne d’information contenue dans un message. Il définit la capacité d’un canal de communication et établit les théorèmes fondamentaux du codage : il est possible de transmettre de l’information de manière arbitrairement fiable sur un canal bruité, à condition de ne pas dépasser la capacité du canal et d’utiliser un codage approprié. Shannon popularise le terme bit (contraction de binary digit), suggéré par son collègue John Tukey, comme unité fondamentale de l’information.

L’article présente un schéma de système de communication qui deviendra universel : une source d’information, un émetteur qui encode le message en signal, un canal (pouvant comporter du bruit), un récepteur qui décode le signal, et un destinataire. Cette abstraction s’applique aussi bien aux lignes télégraphiques qu’aux conversations humaines, aux transmissions par satellite qu’à l’ADN.

Maturité intellectuelle et excentricités

Vie familiale et personnalité

En janvier 1940, Shannon épouse Norma Levor, une intellectuelle aisée. Le mariage se termine par un divorce moins d’un an plus tard. En 1948, aux Bell Labs, il rencontre Mary Elizabeth Moore, dite Betty, analyste numérique douée qui travaille sur les radars. Diplômée Phi Beta Kappa du New Jersey College for Women, Betty partage avec Shannon une intelligence vive et un sens de l’humour sarcastique. Timide mais déterminé, Shannon l’invite à dîner. Ils se revoient chaque soir et se marient le 22 mars 1949.

Betty devient la collaboratrice intellectuelle principale de Shannon. Elle relit ses articles, suggère des améliorations, effectue les calculs arithmétiques (domaine où elle excelle davantage que lui) et participe à la construction de ses inventions. Elle câble notamment Thésée, la souris électromécanique capable de résoudre un labyrinthe, considérée comme l’une des premières expériences en intelligence artificielle. Le couple a trois enfants : Robert, Margarita et Andrew.

Shannon se présente comme apolitique et athée. Sa personnalité se caractérise par une curiosité insatiable et un esprit ludique. Aux Bell Labs, il est célèbre pour circuler dans les couloirs sur son monocycle tout en jonglant avec trois balles. Il invente un monocycle à moyeu décentré qui fait osciller le cycliste comme un canard, attirant les spectateurs. Il conçoit des frisbees à propulsion de fusée, des trompettes lance-flammes, un bâton sauteur motorisé et des chaussures en mousse pour marcher sur l’eau.

Inventions et contributions diverses

Au-delà de ces gadgets, Shannon développe des machines plus sérieuses. Il construit plusieurs ordinateurs jouant aux échecs, dont l’un peut jouer une finale roi-tour contre roi. En 1950, il publie dans Scientific American un article sur les machines joueuses d’échecs, contribuant aux débuts de l’intelligence artificielle. Avec son épouse, il conçoit le premier ordinateur portable – un dispositif dissimulé dans une chaussure capable de prédire la roulette, testé à Las Vegas avec un certain succès.

Shannon développe également une théorie mathématique de la jonglerie, établissant la formule : B/H = (D + F)/(D + E), où B représente le nombre de balles, H le nombre de mains, D le temps passé par chaque balle dans une main, F le temps de vol et E le temps où chaque main reste vide. Il construit plusieurs machines jongleuses et, bien que sa théorie soit élégante, elle ne l’aide pas à jongler avec plus de quatre balles.

Cryptographie déclassifiée et autres publications

En octobre 1949, une version déclassifiée de son travail cryptographique paraît sous le titre Communication Theory of Secrecy Systems. Cet article transforme la cryptographie d’un art empirique en une science mathématique rigoureuse. Il y explicite les conditions du secret parfait et analyse divers systèmes de chiffrement. Les concepts développés rejoignent étroitement ceux de la théorie de l’information : Shannon reconnaît que ces deux recherches ont progressé simultanément dans son esprit, « si proches qu’on ne pouvait les séparer ».

Shannon publie également sur l’échantillonnage des signaux (théorème d’échantillonnage), sur la prédiction et l’entropie de l’anglais imprimé (établissant des bornes statistiques sur la structure du langage), et sur de nombreux autres sujets. Son article de 1951 montre notamment que traiter l’espace comme la 27ᵉ lettre de l’alphabet réduit l’incertitude dans le langage écrit.

Rayonnement et dernières années

Carrière au MIT

En 1956, Shannon devient professeur invité au MIT. La famille s’installe à Winchester, Massachusetts, près du lac Mystic. Il occupe la chaire Donner de sciences de 1958 à 1978, tout en maintenant son affiliation avec Bell Labs jusqu’en 1972. Au MIT, Shannon enseigne peu. Après quelques semestres, il informe l’administration qu’il ne souhaite plus donner de cours. Preuve de sa stature, le MIT accepte sans protestation.

Shannon se consacre à ses recherches et à ses inventions dans le sous-sol de sa maison, transformé en « salle de jouets » remplie de dispositifs mécaniques et électroniques. Il construit une machine lisant dans les pensées, un dispositif résolvant le Rubik’s Cube, et d’innombrables autres créations. Certains collègues s’inquiètent : a-t-il abandonné la science pour la fantaisie ? Des rumeurs de maladie mentale circulent, mais restent sans fondement.

En réalité, Shannon continue à réfléchir à la théorie de l’information, mais considère la plupart de ses résultats indignes de publication. Il suit l’évolution de l’intelligence artificielle avec passion. Toutefois, il souffre d’un trac paralysant et cesse de participer aux conférences sur la théorie de l’information dès les années 1960.

Réception et influence

L’influence de Shannon dépasse largement son domaine initial. La théorie de l’information suscite un enthousiasme tel que des chercheurs de toutes disciplines tentent de l’appliquer : linguistique, psychologie, économie, biologie, musique. En 1958, un éditorial du IEEE Transactions on Information Theory intitulé « Théorie de l’information, photosynthèse et religion » déplore ces extensions excessives. Shannon lui-même, tout en restant sceptique face à certaines applications, explore librement divers sujets.

Paul Fitts, psychologue comportemental, cite explicitement le théorème de Shannon dans sa loi de 1954 modélisant les mouvements humains. Cette loi est aujourd’hui utilisée pour étudier les interactions homme-machine. En biologie, l’ADN est progressivement compris comme un système d’information, perspective influencée par les concepts shannoniens. En informatique, tous les systèmes de compression de données, de correction d’erreurs et de transmission numérique reposent sur ses théorèmes.

Honneurs et reconnaissance

Shannon reçoit de nombreuses distinctions. Outre le prix Alfred Noble (décerné en 1939 pour ses travaux sur les circuits à relais, datés de 1937–1938, un prix à ne pas confondre avec le prix Nobel!), il obtient le prix Morris Liebmann de l’Institute of Radio Engineers (1949), la médaille d’honneur de l’IEEE (1966), la National Medal of Science remise par le président Lyndon Johnson (1966), le prix Harvey (1972) et le prix Kyoto (1985), équivalent japonais du Nobel. Il est élu membre de l’Académie nationale des sciences, de la Royal Society de Londres et de nombreuses autres sociétés savantes. En 1973, l’IEEE institue le prix Claude E. Shannon, récompense suprême en théorie de l’information.

En 1985, Shannon fait une apparition surprise au symposium international de théorie de l’information à Brighton, Angleterre. Les participants, dont certains ignoraient qu’il était encore vivant, sont stupéfaits. Au banquet, les organisateurs le persuadent de prendre la parole. Après quelques minutes, craignant d’ennuyer l’audience, il sort trois balles de ses poches et se met à jongler. La salle l’acclame. Un ingénieur commente : « C’était comme si Newton était apparu à une conférence de physique. »

Déclin et mort

À partir des années 1970, Shannon publie de moins en moins. Son dernier article scientifique, paru en 1974, porte sur… la jonglerie. Il travaille sur un article concernant le Rubik’s Cube qui reste inédit. Il devient de plus en plus reclus, bien qu’il continue à recevoir quelques visiteurs dans sa maison-musée.

Dans les années 1980, Shannon développe la maladie d’Alzheimer. Il quitte le MIT en 1978 et sa santé décline progressivement. Il passe ses dernières années dans une maison de repos à Medford, Massachusetts, où il meurt le 24 février 2001 à l’âge de 84 ans. Il laisse derrière lui son épouse Betty (décédée en 2017), ses trois enfants et deux petites-filles.

Postérité et actualité de la pensée

Impact sur le monde numérique

L’héritage de Shannon imprègne chaque aspect de notre civilisation numérique. Chaque SMS envoyé, chaque vidéo diffusée en continu, chaque recherche internet repose sur ses théorèmes. Les communications par satellite, les CD et DVD, les systèmes GPS, les réseaux de téléphonie mobile : tous emploient des techniques de codage et de correction d’erreurs dérivées directement de ses travaux. L’algèbre de Boole appliquée aux circuits, sa première contribution, demeure le fondement de tous les processeurs informatiques.

Le roboticien Rodney Brooks déclare que Shannon est « l’ingénieur du XXᵉ siècle qui a le plus contribué aux technologies du XXIᵉ siècle ». Le mathématicien Solomon Golomb qualifie ses réalisations intellectuelles de « parmi les plus grandes du XXᵉ siècle ». Robert Lucky, des Bell Labs, affirme que son œuvre est « la plus grande de l’histoire de la pensée technologique ».

Reconnaissance tardive du grand public

Contrairement à Alan Turing ou Albert Einstein, Shannon n’a pas acquis de notoriété médiatique comparable. Aucun film hollywoodien ne lui est consacré, aucun mythe artistique ne s’est développé autour de lui. Le chercheur Olivier Rioul explique : « Shannon a mené une vie ordinaire, et c’est peut-être pourquoi personne n’en parle. » Pourtant, en 2016, le centenaire de sa naissance suscite un regain d’intérêt. Bell Labs organise une conférence, Google lui consacre un Doodle, et des célébrations ont lieu dans le monde entier.

Six statues de Shannon, sculptées par Eugene Daub, ont été érigées : à l’université du Michigan, au MIT, à Gaylord (Michigan), à l’université de Californie à San Diego, aux Bell Labs et aux Shannon Labs d’AT&T. Après la dissolution du système Bell, la partie des Bell Labs demeurée avec AT&T prend le nom de Shannon Labs en son honneur.

Leçons philosophiques

Au-delà des applications techniques, l’œuvre de Shannon porte une dimension philosophique. Elle transforme l’information d’une notion vague en grandeur physique mesurable, comparable à la masse ou à l’énergie. Cette quantification permet d’étudier scientifiquement les processus informationnels dans la nature : l’ADN comme code, le cerveau comme système de traitement, l’évolution comme optimisation informationnelle.

Shannon incarne également une approche de la recherche fondée sur la curiosité pure. Il déclare : « Je me suis rarement intéressé aux applications. Je m’intéresse davantage à l’élégance d’un problème. Est-ce un bon problème, un problème intéressant ? » Cette attitude, apparemment désinvolte face à l’utilité, produit paradoxalement les découvertes les plus transformatrices. Sa devise implicite semble être : poursuivre ce qui fascine, sans égard pour la valeur finale, conduit souvent aux contributions les plus décisives.

Enfin, Shannon illustre l’importance de l’interdisciplinarité et de l’abstraction mathématique. En identifiant les structures profondes communes à des domaines apparemment distincts (circuits électriques et logique, communication et cryptographie, jonglerie et algèbre), il démontre la puissance unificatrice des mathématiques. Son legs rappelle que les avancées les plus profondes naissent souvent du croisement de disciplines et de la capacité à s’élever vers des formulations abstraites qui transcendent les spécificités techniques.

La figure de Claude Shannon, ingénieur-mathématicien ludique et génial, demeure ainsi un modèle pour penser l’innovation scientifique : rigueur théorique et esprit joueur, abstraction mathématique et réalisations concrètes, concentration intellectuelle et excentricité libératrice ne s’opposent pas mais se nourrissent mutuellement. Dans un monde submergé par les données et les communications numériques, comprendre et honorer le visionnaire qui en a posé les fondements intellectuels n’est pas simple piété historique, mais nécessité pour saisir les enjeux de notre présent technologique.

Total
0
Shares
Share 0
Tweet 0
Share 0
Sujets liés
  • Communication
  • Cybernétique
  • Intelligence artificielle
  • Logique
  • Mathématiques
  • Philosophie des sciences
  • Sciences
Article précédent
boidas
  • Philosophies

Boidas le pythagoricien, ou les mécanismes de perte d’information dans la transmission des connaissances antiques

  • 18/11/2025
Lire l'article
Article suivant
Image fictive et imaginaire de Pierre de Fermat, ne représentant pas le mathématicien et philosophe réel
  • Biographies
  • Rationalisme

Pierre de Fermat (1601–1665) : penseur de la méthode scientifique et architecte de la philosophie naturelle

  • 20/11/2025
Lire l'article
Vous devriez également aimer
Cioran
Lire l'article
  • Biographies
  • Existentialisme

Emil Cioran (1911–1995) : le pessimisme lucide

  • Philosophes.org
  • 06/02/2026
jank
Lire l'article
  • Biographies
  • Philosophies contemporaines

Vladimir Jankélévitch (1903–1985) : le philosophe de l’ineffable

  • Philosophes.org
  • 05/02/2026
leon chestov
Lire l'article
  • Biographies
  • Existentialisme

Léon Chestov (1866–1938) : une pensée rebelle

  • Philosophes.org
  • 05/02/2026
carl stumpf
Lire l'article
  • Biographies
  • Phénoménologie

Carl Stumpf (1848–1936) : aux sources de la phénoménologie et de la psychologie de la Gestalt

  • Philosophes.org
  • 05/02/2026
Portrait fictif d'Alexius Meinong, philosophe autrichien ; cette image imaginaire ne représente pas le philosophe réel.
Lire l'article
  • Biographies
  • Phénoménologie

Alexius Meinong (1853–1920) : l’ontologie des objets inexistants

  • Philosophes.org
  • 27/01/2026
Portrait fictif de Raymond Geuss, philosophe politique américano-britannique ; cette image imaginaire ne représente pas le penseur réel.
Lire l'article
  • Biographies
  • Théorie critique

Raymond Geuss (1946–) : philosophie politique et diagnostic du réel

  • Philosophes.org
  • 26/01/2026
Image fictive de Robert Nozick, philosophe américain du XXᵉ siècle, ne représentant pas le personnage réel
Lire l'article
  • Biographies

Robert Nozick (1938–2002) : un défenseur de l’État minimal

  • Philosophes.org
  • 26/01/2026
Image fictive de Peter Strawson, philosophe britannique de la tradition analytique, ne représentant pas le personnage réel
Lire l'article
  • Biographies
  • Philosophie analytique

Peter Strawson (1919–2006) : métaphysique descriptive et langage ordinaire

  • Philosophes.org
  • 26/01/2026

Laisser un commentaire Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Philosophes.Org
  • A quoi sert le site Philosophes.org ?
  • Politique de confidentialité
  • Conditions d’utilisation
  • Qui sommes-nous ?
  • Contact
  • FAQ – Questions fréquentes
  • Disciplines d’intérêt
  • Transparence éditoriale
  • Newsletter
La philosophie au quotidien pour éclairer la pensée

Input your search keywords and press Enter.