• par Pierre Marsal

    12/12/2023 et 6/01/2024

     

    Premier complément

    C’est l’émergence en fin 2022 de ChatGPT qui a popularisé le concept d’IA générative. Mais l’intérêt, voire les préoccupations, portés par les milieux économiques, industriels et politiques sont  bien antérieurs.

    - Pour la France on peut citer le rapport de mission rédigé sous la direction de Cédric Villani, le mathématicien alors député, remis au Premier Ministre Edouard Philippe en mars 2018 (« Donner un sens à l’intelligence artificielle – Pour une stratégie nationale et européenne »). Centré sur économie « articulée autour de la donnée », on y trouve de nombreuses recommandations, dont certaines sont très actuelles. Par exemple, de transformer l’enseignement, de mettre la santé, le transport « à l’heure de l’IA »,  de faire de la France  « le leader de l’agriculture augmentée », de mettre l’IA au service de la défense et de la sécurité. Y sont évoqués des questions de financement, d’organisation de la recherche, sans oublier les problèmes éthiques posés.

    - Au niveau européen, la Commission qui travaille depuis plusieurs années sur ce sujet, est en train de finaliser un projet de législation, l’IA Act, qui sera soumis très prochainement au Parlement et au Conseil européens. Il faut se doter des moyens nécessaires pour donner une place majeure à l’Europe, tout en édictant des règles très précises et une législation adaptée pour préserver les prérogatives des Etats, les droits et les libertés des citoyens, en interdisant des usages leur portant atteinte (par exemple la surveillance et le traçage des individus). Le temps presse car les initiatives d’Etats puissants ou de grandes firmes avancent vite. Ainsi Google dont le programme Gemini qui exige de gigantesques moyens de calcul (10 zettas flops, soit 1025 opérations en virgule flottante par seconde !) devrait être opérationnel en 2024.

     

    Second complément

    Les événements vont vite en ce domaine.

    - Presque chaque semaine on apprend de nouvelles prouesses rendues possibles grâce à l’IA : mise au point de nouveaux médicaments, de nouveaux vaccins, de nouveaux, antibiotiques, de nouveaux matériaux.

    - Le célèbre linguiste Noam Chomsky, a joué un rôle important dans le développement de l’IA, plus particulièrement dans la logique computationnelle grâce à sa théorie de la syntaxe du langage naturel et de la grammaire générative. Depuis longtemps il  a pris position sur l’IA : elle ne peut pas reproduire l’intelligence humaine, ne doit pas être utilisée pour des fins funestes et doit être développée démocratiquement. Aujourd’hui, avec d’autres grandes figures de lia comme Geoffrey Hinton (prix Turing 2019) il s’inquiète des performances de cette technologie. Il est en effet très étonnant que cette technique, simple dans son principe (prédire le prochain mot d’une phrase en utilisant une gigantesque base de données), acquière des capacités qu’on n’attendait pas d’elle.  Comme de résoudre des problèmes mathématiques. C’est un processus totalement opposé à celui qu’utilisent les humains. Son « raisonnement » est incompréhensible. A-t-on créé un nouveau typa d’intelligence, totalement inconnu de nous ?

     

     

     


    votre commentaire
  • par Pierre Marsal

    2/12/2023

     

    « L’IA est une technologie qui a le potentiel de transformer notre monde, tant positivement que négativement. Il est important de nous préparer aux risques potentiels de l’IA, tout en nous concentrant sur ses avantages potentiels » (Le Monde, 20 juillet 2023). Cet entrefilet résume bien le débat qui fait florès ces derniers mois.

     

    Brève mise en perspective : l’enjeu du débat

    Le grand public, comme la presse populaire, découvrent ce problème depuis tout juste un an, en décembre 2022, quand ChatGPT, créé par la société OpenAI, a été rendu public en accès libre. En fait le concept d’IA est beaucoup plus ancien et couvre un plus large champ que ce modèle de langage génératif.

    On pourrait remonter assez loin dans l’histoire, quand furent imaginées et parfois construites des machines autonomes capables de simuler l’action des êtres vivants et la pensée des humains. Par exemple les automates comme le fameux canard de Vaucanson ou encore la Pascaline, machine à calculer conçue par Blaise Pascal. Mais l’origine de ce concept est beaucoup plus récente : on peut le faire remonter aux travaux du génial mathématicien Alan Turing qui, il y a environ trois quarts de siècle, dans les années 50, a conçu un test destiné à déterminer si une machine était « intelligente », c’est-à-dire s’il était impossible de déterminer si son action était ou non celle d’un être humain (test de Turing). Depuis lors, le terme d’IA a été adopté et a donné lieu à de nombreuses recherches dans des domaines aussi variés que l’informatique, la cybernétique, les sciences cognitives, etc. Après des années de tâtonnement, la technique des « réseaux de neurones », permise par la montée en puissance des capacités des ordinateurs, a relancé l’IA en en multipliant les champs d’action et les performances. Aujourd’hui l’IA se décline en plusieurs branches regroupées en deux catégories, l’IA faible, et l’IA forte. La première est capable d’effectuer de façon autonome une tâche bien déterminée. La seconde serait capable de se comporter comme un être humain. C’est une technologie qui reste hypothétique. Mais elle suscite de nombreuses craintes. Notamment celle du « grand remplacement » de l’homme par la machine. C’est ce que déclarait Stephen Hawking en 2014 à la BBC : « Je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité »2. Pourtant, quelques années plus tard il ajoutait que « L’IA pourrait être le plus important événement de l’histoire de notre civilisation »

     

    L’IA, comme la langue d’Esope, est-elle la meilleure ou la pire des choses ?

    Les points de vue contrastés de ce grand physicien montrent la complexité de cette question et l’incertitude sur le devenir de cette innovation. Bien que les controverses actuelles portent surtout sur l’IA générative, qui n’en est qu’un aspect, ils résument bien les enjeux de l’IA.

    L’IA générative est utilisée pour créer des nouveaux contenus, textes, images, musique, vidéos, qui ne sont le plus souvent pas distinguables des productions humaines. Toutes les principales entreprises du secteur du numérique ont mis au point des programmes en évolution rapide et adaptés aux usages qu’on attend d’eux : GPT-3, LaMDA, BARD pour le texte, DALL-E2, Imagen, pour l’image, MuseNet, Magenta, pour la musique, etc. Tous en perfectionnement continu. Les projets se multiplient et, contrairement à ce qu’on pourrait croire, la France n’est pas trop mal placée dans la compétition mondiale.

    Mais les enjeux comme les risques sont colossaux. Enjeux de domination scientifique, économique, politique, culturelle et même militaire, qui exigent des investissements massifs que tous les Etats, toutes les entreprises internationales, ne sont pas capables d’assumer. Risque de séisme économique avec des pertes d’emplois massifs des secteurs concernés, c’est-à-dire la quasi-totalité de ceux qui existent (communication, finance, santé, enseignement, conception de produits comme l’automobile, même les PME, etc.). Déjà ces perspectives suscitent des réactions, des grèves par exemple chez les journalistes, chez les scénaristes à Hollywood... Tous les secteurs dans lesquels il faut traiter et synthétiser très rapidement une grande masse d’information sont concernés (météorologie, sciences médicales et pharmaceutiques par exemple). Déjà certains ont sauté le pas comme le quotidien Le Monde qui utilise régulièrement le logiciel libre DeepL pour traduire des articles : c’est effectivement de l’IA, mais non générative comme le redoutent les journalistes. Dans l’enseignement on commence à s’inquiéter de l’usage que peuvent en faire élèves et étudiants pour produire des écrits rédigés par un programme IA, non détectable à la différence de Wikipedia.

    Un autre enjeu majeur est celui des finalités de l’IA. Ces programmes doivent-ils être au service de l’humanité entière ou devenir le monopole des grands Etats et ou de puissantes entreprises ? Déjà la question s’est posée à l’occasion du récent renvoi temporaire du jeune Sam Altman, optimiste patron d’OpenAI créatrice de ChatGPT, soucieux d’un développement altruiste, transparent et financièrement désintéressé, alors que son CA qui tentait de l’évincer avait des visions mercantiles à long terme. C’est la reproduction des dérives des GAFAM.

    Pour terminer ce bref aperçu, il faut pointer le risque inhérent à l’explosion de la demande en énergie nécessitée par le traitement informatique d’un nombre considérable de données.

    Après tout, ce qui se passe avec l’IA c’est ce qu’il est advenu de toutes les grandes innovations techniques depuis l’invention du métier à tisser, jusqu’à la mécanisation puis l’automatisation de diverses tâches. Des métiers disparaissent (standardistes, sténodactylos, etc..), ce qui a souvent créé des troubles, voire des révoltes (canuts lyonnais, luddites anglais...). Troubles sévères, mais momentanés dans la mesure où de nouveaux métiers apparaissaient et que la productivité du travail s’accroissait. C’est ce que Schumpeter nommait « destruction créatrice ». La question est de savoir quelle sera la rapidité de cette mutation. Il faut que les générations s’adaptent sous peine de difficultés considérables. Toutes les craintes sont permises.

     

    Espoir ou danger ? Un vieux débat

    Au-delà de cette affaire, c’est la vieille question de l’impact de la technique sur la société qui est posée. Elle a beaucoup agité plusieurs générations de penseurs. Il y a les optimistes et les pessimistes.

    Gilbert Simondon, grand philosophe malheureusement un peu oublié, inspiré de Husserl, Bergson et Canguilhem notamment, considérait que la technique artificielle3, c’est-à-dire celle créée par l’homme, est une médiation indispensable entre les humains et le monde : c’est un phénomène culturel et non un simple outil. Les objets techniques ont un mode d’existence qui les associe à l’existence humaine. Simondon aurait été très intéressé par l’IA. Sa pensée, très complexe, en fait le précurseur ou le chef de file de tous ceux qui qui portent un regard plutôt optimiste sur la technique, comme Bernard Stiegler ou Bruno Latour.

    De l’autre côté, à peu près à la même époque, Jacques Ellul considérait que la technique est un phénomène autonome qui a sa propre dynamique : elle finit par échapper au contrôle humain et constitue une menace pour l’avenir de l’humanité. Avant lui Heidegger estimait que la technique moderne est un danger totalitaire pour l’humanité en ce qu’elle exige de la nature plus que ce que sa générosité lui offre spontanément : elle la pro-voque au lieu de l’inciter à pro-duire. Les humains abusent ainsi de l’énergie (au sens large) mobilisable.

    Ces deux derniers exemples montrent que les jugements sur la technique dépassent les opinions partisanes. Quelles convergences peut-il y avoir entre un Ellul, historien-sociologue et théologien protestant anarchisant, et Martin Heidegger, considérable philosophe qui n’a jamais caché son antisémitisme et son engagement nazi4 ?

     

    Pierre Marsal  02/12/2023

    _____________________________________________________________________

    1 La Commission européenne définit ainsi l’IA : « ensemble de logiciels qui est développé au nom d'une ou plusieurs techniques et approches, qui peut, pour un ensemble donné d'objectifs définis par l'homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit. »

    2 Il craignait par exemple l’avènement de robots tueurs.

    3 La technique naturelle c’est par exemple la construction de ruches par les abeilles, de nids par les oiseaux.

    4 Autre paradoxe : Hannah Arendt, élève et maîtresse d’Heidegger, craignait aussi la technique. Et elle était juive !

     


    votre commentaire
  • par Pierre MARSAL

    14 mars 2024

     

    Sans le texte de présentation et sans le compte-rendu, il est dommage que les discussions du Café-Débat de Saint Quentin en Yvelines du 2 mars dernier n’aient pu bénéficier qu’à quelques heureux participants.  Sujet intéressant encore que le titre proposé ne soit pas très explicite. Il mérite de longs débats, voire même des controverses.

    Voici donc une petite contribution personnelle. Dans un premier temps (§ 1) est repris un court extrait d’un compte-rendu personnel d’échanges en février 2012 avec Heinz Wismann, philologue et philosophe, sur les liens entre progrès et innovation. Dans un second temps (§ 2) on revient sur le sujet plus précis qui nous a été proposé.

     

    § 1 - Les sociétés primitives considèrent souvent l'innovation comme une menace potentielle : elles jugent l'avenir par référence au passé. L'innovation est bonne si elle tend à redécouvrir l'Âge d'Or perdu. Même les plus « progressistes » des anciens Grecs analysaient le progrès par rapport à l'état parfait connu dans le passé. Les sages, les scribes,… analysaient donc les situations en fonction de ce qu'ils connaissaient et ce qu'ils connaissaient n'était pas susceptible d'évoluer (nihil novi sub sole). Si tout progrès est une innovation, toute innovation n'est pas un progrès.

    Une rupture décisive s'est opérée au XVe siècle. Trois événements vont changer la vision du monde. 1) Copernic déloge la Terre du centre de l'univers ; 2) on découvre de nouveaux continents ; 3) l'imprimerie est inventée. L'évidence du Retour est évacuée, la centralité et l'immuabilité sont contestés, les traditions sont confrontées. L'humanisme émerge alors dans la transition de la divinitas à l'humanitas.

    Face à ces secousses, pour conjurer les angoisses, on recherche un nouveau mode de stabilisation, non plus en se référant à un stade initial, mais en se projetant vers un état final. C'est le début des utopies (Thomas More, 1516). L'idée que les avancées ne peuvent se concevoir que par rapport à un futur plus ou moins proche n'existait pas dans les anciennes cultures. La dernière des utopies fut le marxisme et l'idéal des « lendemains qui chantent ». En termes de progrès des sciences et des techniques, une innovation n'est acceptable que si elle procure une avancée vers cet horizon futur.

     

     § 2 - Il faut se méfier des faux-amis : progrès et progressisme n’ont pas les mêmes origines ni même les mêmes implications. Le premier, progrès, vient de loin.

    En France, après Turgot qui évoquait les « progrès de l’esprit humain », une des plus remarquables réflexions qui ait été faite est contenue dans l’œuvre posthume de Condorcet.  « Esquisse d’un tableau historique des progrès de l’esprit humain », colossal ouvrage dans lequel l’auteur décrit l’évolution des connaissances humaines pour exprimer sa certitude de la perfectibilité de l’humanité grâce au progrès des connaissances et de leur diffusion. Elles devaient notamment réduire les inégalités entre Nations, entre individus et perfectionner l’être humain.

    Cet acte de foi perdure jusqu’à nos jours et fut particulièrement magnifié chez les saint-simoniens par exemple. Aujourd’hui c’est encore la pensée dominante malgré quelques nuances et objections.

    En effet le progrès, le plus souvent perçu comme progrès technique, c’est-à-dire comme innovation, est ambivalent. Toute avancée positive a une contrepartie qui l’est moins : les progrès mécaniques engendrent des engins de mort, internet développe infox et booste le complotisme. Il n’est guère que les progrès sanitaires, médicaux, vaccinaux qui soient majoritairement perçus positivement. Et encore contrarient-ils quelques grincheux qui regrettent que la sélection naturelle ne puisse pas faire son office ou que la surpopulation les menace.

    Plus fondamentalement des penseurs mettent en cause les progrès des techniques, de grands personnages aussi idéologiquement différents que Heidegger ou Jacques Ellul. Quand ce ne sont pas des activistes dangereux comme le mathématicien anarchiste américain surnommé Unabomber qui voulait s’y opposer par la violence. La foi dans le progrès peut donc aussi bien être de droite comme de gauche.

     

    D’autre nature est le progressisme. C’est une philosophie politique plus récemment apparue. C’est un néologisme créé dans les années 1930, même si l’idée était déjà en germe depuis plus longtemps par exemple chez John Stuart Mill. C’est une idéologie qui suggère que le progrès va dans le sens de l’histoire. Elle a donc des points de convergence avec le marxisme. Elle s’oppose au conservatisme, à la réaction, au déclinisme, à la collapsologie... Elle conteste les normes et les pouvoirs établis, comme l’académisme dans l’art : les grands mouvements artistiques du début du siècle précédent (surréalisme, lettrisme, dadaïsme, musique concrète, etc.) ou intellectuels (situationnisme) en furent des manifestations.

    En fait ceux qu’on peut qualifier, à tort ou à raison, de progressistes, n’ont pas toujours la même foi quant au déterminisme linéaire du progrès. Ainsi Gramsci remit-il en cause l’histoire comme progrès après l’arrivée au pouvoir des fascistes en Italie. A contrario certains considèrent que le progressisme cache une volonté d’instituer le progrès par la violence. Violence politique ou militaire dans les dictatures, violence économique plus feutrée comme c’est le cas dans notre société. Il peut donc y avoir confusion de sens (comme c’est le cas à propos du libéralisme). Mais globalement c’est plutôt une valeur de gauche.

    .


    3 commentaires
  • par Pierre MARSAL

    2 octobre 2023

    Ce texte prolonge l'exposé éponyme qui s'est déroulé au Café-Débat de Saint Quentin en Yvelines le 30 septembre 2023, auquel Pierre Marsal n'a pu participer.

     

    Voilà une bonne question, si l’on englobe sous ce terme tout le système éducatif français. Encore faudrait-il que celles et ceux qui ont la responsabilité de son devenir se posent cette question. Au lieu de cela, ils naviguent à la gaffe, dans les deux acceptions de ce terme. L’école est ballotée entre les lubies de spécialistes des sciences de l’éducation qui l’utilisent comme champs d’expériences et les multiples réformettes qui se contredisent les unes les autres de politiciens en mal de notoriété immédiate. Mais point de véritables perspectives qui pourtant semblent indispensables pour une activité dont les finalités ne sont pas à court terme. Qu’est devenue « l’ardente obligation » de la planification ?

    Il est vrai qu’en la matière les objectifs ne sont pas simples. Que souhaite-t-on en attendre ? Les choix peuvent être multiples.

    1. Faut-il instruire ou éduquer ? Instruire, c’est-à-dire faire accumuler des connaissances, des pratiques et des règles de comportement social, comme le suggère le préfixe in-. Apprendre aux petits écoliers que la France a besoin d’eux pour récupérer l’Alsace et la Lorraine. Apprendre par cœur et psalmodier sans en comprendre le sens des textes sacrés... Les « bénéficiaires » de ce système efficace deviennent d’excellents agents du projet porté en haut lieu. Ou bien éduquer, extraire de son état initial (préfixe ex-) diriger vers le haut. C’est donner plus de libre arbitre à la personne à éduquer. Des têtes bien faites plutôt que des têtes bien pleines.

    2. Se pose alors la question : éduquer pour quoi faire ? Pour apprendre, pour apprendre à apprendre, pour apprendre à être ou apprendre à devenir ? Au profit de la société, du collectif ou de l’individu ? On conçoit que les méthodes pédagogiques diffèrent selon les réponses apportées à ces questions. L’enseignement traditionnel privilégie le collectif tout en essayant de s’adapter – difficilement – aux cas particuliers (retards scolaires, enfants autistes, etc.). D’autres s’attachent plus aux capacités des enfants (pédagogies Freinet, Montessori), ou vont même jusqu’à laisser l’enfant organiser son propre apprentissage, préférant des individus « bien dans leur peau » plutôt qu’utiles à la société (les libres enfants de Summerhill d’Alexander Neill). Certaines aussi ont des relents sectaires (écoles Steiner).

    3. D’un point de vue économique, puisque nous sommes dans une économie de marché, on peut tirer diverses conséquences de la situation actuelle. Tout d’abord le constat que les enseignants français sont parmi les moins rémunérés en Europe, surtout en début de carrière. Cela explique les difficultés de recrutement et, sans faire injure à quiconque, la moindre qualité, en tout cas une moindre motivation, des personnels recrutés. Delà probablement une régression continue des connaissances acquises par les élèves (voir les notes d’alerte du Conseil Scientifique de l’éducation nationale, CSEN) et le médiocre classement de la France dans le classement mondial des acquis des élèves (PISA).

    D’autre part, si nos étudiants sont moins bien formés que d’autres compétiteurs étrangers, qu’on ne s’étonne pas que notre pays régresse dans le concert des nations : la Chine est largement en tête pour tous les critères de PISA.

    4. Si l’on se place d’un point de vue social les conséquences de la situation actuelle sont sérieuses. D’une part, conscients de la dégradation de l’enseignement public, les parents les plus aisés dirigent leurs enfants vers des établissements privés, contribuant ainsi à la reproduction des classes sociales et à l’échec des velléités de mixité sociale. Un grand marché de l’éducation est en train de se développer : la part du privé dans l’enseignement supérieur est passée de 7 % dans les années 90 à plus de 20% aujourd’hui. Et encore cet enseignement contribue-t-il à l’obtention de diplômes nationaux ou internationaux. Le danger que pointait André Staropoli il y a une vingtaine d’années c’est le développement d’un système de diplômes-maison attribués par de grosses entreprises grâce à la formation à distance : un « ingénieur Google » pourrait bénéficier d’un diplôme de haut niveau décerné par cette firme. Et devenir ainsi plus ou moins prisonnier de sa politique et de ses choix. Dystopie ? Il semble que nous n’en soyons pas encore là.

    5. Toujours d’un point de vue social, avec l’augmentation du nombre de diplômés, même si leur valeur n’est pas celle que l’on serait en droit d’attendre, grand est le risque, ou au moins la sensation, de déclassement. Jadis les cadres se considéraient comme une élite, bien plus proche du patronat dont ils épousaient les causes, que du prolétariat dont certains étaient issus. Aujourd’hui, en dépit des nomenclatures statistiques officielles, ils se sentent à la limite de la classe ouvrière et de la classe moyenne. En tout cas, rejetés par les « élites ». Ce qui n’est pas sans incidences politiques. C’est l’historien Roger Chartier, spécialiste de l’histoire du livre et de l’édition, qui explique la Révolution Française (que d’aucuns qualifient de «révolution bourgeoise ») notamment par le ras-le-bol d’intellectuels qui, disposant des connaissances les plus avancées de l’époque, se sentaient déclassés par rapport aux titulaires de privilèges historiques. Ce ne sont pas les paysans pauvres, les sans-culottes, qui furent les initiateurs de ce mouvement historique, d’ailleurs ils en ont peu bénéficié. Danton, Robespierre étaient avocats, Desmoulins journaliste (on disait publiciste), Marat médecin, Lazare Carnot scientifique...

    Quand le vase de l’insatisfaction débordera-il ?

     


    1 commentaire
  • par Jean-Jacques VOLLMER

    31 juillet 2023

     

    L'Homme fait partie du règne animal, et l'espèce humaine est avant tout une collection d'individus qui me ressemblent terriblement, ce qui entraîne deux conséquences :

    • Le rôle premier d'un individu, c'est de participer à la pérennité de l'espèce. En ce sens, l'espèce, en tant que « tout » constitué, ne s'intéresse pas au devenir de chacun de ses constituants, tout comme un être vivant complexe, tel qu'un animal, ne s'intéresse pas à ce que font ses cellules. Nous voyons souvent à la télévision des navires de pêche qui rejettent à la mer des milliers de poissons morts parce qu’ils ne sont pas aux normes, et je me suis demandé quelle était la valeur de la vie d'un seul de ces poissons, en quoi il pouvait bien se différencier fondamentalement de tous les autres dans cette masse, et en quoi cela pouvait avoir la moindre importance. Vu de cette manière, même si le « Nous » a besoin des innombrables « Je » pour exister, un individu précis n'a aucune valeur en soi. Bien sûr, une analogie n'est pas une démonstration, et des chercheurs ont essayé de théoriser plus rigoureusement cette approche, à l'image de Richard Dawkins dans son ouvrage : « Le gène égoïste ».

     

    • On oppose souvent à cette vision le fait que l'espèce humaine est sans doute beaucoup plus qu'une collection d'individus interchangeables, notamment par les capacités cognitives, l'intelligence de chacun d'eux, et le fait que ce sont des êtres conscients. Elle serait une sorte d'émergence supérieure du règne animal. J'ai des doutes sur cette question, arguant du fait que, intelligence ou pas, lorsque les individus sont en grand nombre, ils obéissent toujours aux lois statistiques. Par exemple un flot de voitures sur une route obéit aux équations de Navier-Stokes régissant le comportement des fluides, et n'a que faire de l'intelligence des conducteurs qui sont au volant. Il en va de même pour le résultat des élections : quand deux concurrents restent en lice, on est généralement proche d'un résultat 50 – 50, exactement comme si on avait tiré au hasard un grand nombre de boules noires et blanches dans un sac, indépendamment des programmes défendus par les candidats.

     

    Certes, cette manière de voir les choses est en premier lieu fort matérialiste, mais en rien pessimiste. Elle essaie juste de remettre l'Homme à sa place dans le monde, au lieu de le hisser sur un piédestal en raison de ses qualités individuelles qui n'ont pour résultat que de tracer le chemin qui mène à la destruction de l'espèce au lieu de la perpétuer sereinement.


    3 commentaires


    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique