4e Journée Épistémologie de l’Université de Montpellier

Le mercredi 03 juin 2015 de 09h30 à 18h, UM Polytech, amphi Serge Peytavin – accès libre
(campus Triolet – Faculté des Sciences)

Article associé : Appel à communications affichées (soumissions jusqu’au lundi 27 avril 2015)

Les enregistrements vidéo de cetle journée sont disponibles en ligne sur la WebTV de l’UM (suivre les icônes WebTV-UM).


À l’Université de Montpellier, l’épistémologie est présente à la fois comme domaine de recherche et comme domaine d’enseignement et de formation, mais elle reste encore peu visible pour la majorité des acteurs de l’université. Organisées à l’UM2 depuis 2012, les Journées Épistémologie ont pour objectif de renforcer cette visibilité. Avec la création de l’Université de Montpellier qui résulte de la fusion de l’UM2 avec l’UM1, ces journées sont désormais nommées les Journées Épistémologie de l’Université de Montpellier.

Cette 4e Journée Épistémologie de l’UM organisée sous le patronnage de l’UFR Faculté des Sciences (et plus spécialement du département DESciRE) s’inscrit dans le prolongement des précédentes journées organisées depuis 2012 par l’UM2 (cf. 1e Journée 2012 | 2e Journée 2013 | 3e Journée 2014). 

La journée est ouverte à toutes les personnes intéressées (appartenant ou non à l’UM) : enseignants/chercheurs, étudiants, enseignants du secondaire et du primaire, médiateurs scientifiques…

Thème de la journée : lumière et modèles

Les modèles en sciences

Cette quatrième Journée Épistémologie est consacrée à la notion de modèle en sciences et au phénomène de la lumière. La notion de modèle soulève plusieurs questions d’ordre épistémologique :

Comment un modèle est-il élaboré ? À partir de l’expérience ou à partir d’idées a priori ? Par un processus d’idéalisation de la réalité étudiée ou par des analogies avec des objets déjà connus ?

Quel rapport les modèles entretiennent-ils avec les théories ? Les modèles jouent-ils le rôle de guide pour construire les théories et/ou les modèles interviennent-ils après que les théories soient constituées afin qu’elles puissent être appliquées à des cas concrets ?

Quelle est au fond la différence entre un modèle et une théorie ? Dans la pratique, il est fréquent que les physiciens parlent de « théorie » s’ils pensent que la description qu’elle fournit est en adéquation avec la réalité, et de « modèle » dans le cas contraire. Pourtant, à l’instar des modèles, les théories ont été pointées par les épistémologues du XXe siècle comme étant par principe toujours faillibles.

Quelle est donc la relation entre un modèle et la réalité ? Le fait que, dans certains cas, plusieurs modèles co-existent pour rendre compte d’un même ensemble de phénomènes soulève le problème de la « sous-détermination par l’expérience ». Peut-on considérer que l’un des modèles est le bon et que nous ne disposons pas encore des moyens de le montrer, ou cette pluralité de modèles est-elle une remise en cause de l’interprétation réaliste de nos connaissances ?

Le cas de la lumière

Pour explorer ces questions concernant le statut et le rôle des modèles en sciences, il est utile de s’appuyer sur des exemples concrets tirés de l’histoire des sciences. La lumière, à laquelle l’UNESCO a choisi de consacrer une année internationale en 2015, est un phénomène particulièrement riche d’enseignements à cet égard.

L’histoire de la modélisation de la lumière a d’abord vu s’affronter deux modèles aux XVIIe et XVIIIe siècles : le modèle corpusculaire (Newton) et le modèle ondulatoire (Huygens). Au XIXe siècle, avec notamment les travaux de Fresnel, puis de Maxwell, le modèle ondulatoire semble s’imposer. Toutefois, dans la première partie du XXe siècle, Einstein introduit l’hypothèse des quanta de lumière (ou photons), redonnant ainsi du crédit au modèle corpusculaire. Dans la théorie quantique (l’électrodynamique quantique) développée au cours du XXe siècle, théorie admise aujourd’hui, la lumière est décrite par un formalisme mathématique qui s’écarte des modèles ondulatoires et corpusculaires. Ces deux modèles demeurent néanmoins des représentations utiles : la lumière se comporte à la manière d’une onde dans certains contextes et à la manière de corpuscules dans d’autres contextes.

Ce bref rappel historique, nous permet de distinguer plusieurs éléments qui présentent un intérêt pour la discussion épistémologique sur les modèles : la co-existence de deux modèles concurrents, l’évolutivité des modèles, le dépassement des modèles par une théorie plus large. Nous pouvons ainsi nous interroger sur la façon dont chacun des modèles a été élaboré et quel lien chacun a eu avec la réalité. Se posent également les questions du rôle que ces modèles ont joué dans la constitution de la théorie quantique, et de leurs statuts actuels.

Par ailleurs, le cas du laser (conçu et développé dans les années 1950) constitue un exemple d’application technologique de la théorie quantique très instructif, d’une part, sur le lien entre théorie et réalité et, d’autre part, sur les échanges ou absence d’échanges entre les communautés de scientifiques et d’ingénieurs.

Programme de la journée

(programme susceptible de légères modifications)

  • 09h30 – Ouverture
  • 09h45 – Conférence plénière par Bernard Maitte : La lumière : théories et modèles ondulatoires et corpusculaires, une histoire   WebTV-UM
  • 11h15 – Pause café
  • 11h45 – Conférence invitée par Jérôme Fatet : Histoire d’une interaction réussie entre science et technique : les travaux d’Edmond Becquerel sur la nature de la lumière   WebTV-UM
  • 12h30 – Conférence invitée par Frédéric Geniet : La couleur, un mode de perception de la lumière   WebTV-UM
  • 13h15 – Pause déjeuner
  • 14h30 – Conférence plénière par Gilles Cohen-Tannoudji : Le paradigme de la lumière, fil conducteur des modèles standard   WebTV-UM
  • 16h00 – Pause-café
  • 16h30 – Conférence invitée par Éric Picholle : Du mode d’émergence d’un objet technique : le laser, entre théorie quantique, modèles semi-classiques et tropes SF   WebTV-UM
  • 17h15 – Conférence invitée par Muriel Guedj et Mathilde Frémont : Patrimoine scientifique de l’UM : des collections sans musée, pour quelle histoire ?
  • 18h00 – Clôture : concert par l’ensemble Guitares Plus – amphi A-5.06

Communications affichées

La soumission de résumés est ouverte jusqu’au lundi 27 avril 2015 – cliquer ici pour voir les détails.

Ces présentations sont ouvertes à tous les chercheurs, enseignants-chercheurs, enseignants et étudiants souhaitant présenter leurs recherches ou leurs enseignements. Tous les domaines scientifiques sont éligibles dans la mesure où la contribution questionne la notion de modèle d’un point de vue épistémologique. Les pauses permettront aux participants d’échanger avec leurs auteurs.


Détails des présentations orales (cliquer pour afficher/masquer)

Conférences plénières

La lumière : théories et modèles ondulatoires et corpusculaires, une histoire   WebTV-UM

Bernard Maitte, Professeur émérite d’épistémologie à l’Université de Lille 1

Une première période de l’affrontement entre conceptions corpusculaires et ondulatoires de la lumière est marquée par l’existence d’un cadre conceptuel posé a priori et une méthodologie forgée de manière ad-hoc. Postulant un espace vide et inventant la méthode expérimentale, Ibn al-Haytham donne (XIe) une première théorie corpusculaire de la lumière ; supposant un espace plein et voulant concilier foi et raison, Robert Grossetête propose sa conception ondulatoire (XIIIe).
Un second stade peut être caractérisé par la lente élaboration de la science moderne. Les auteurs partent d’un présupposé sur le monde et, dans ce cadre, veulent expliquer la lumière au moyen de la méthode expérimentale. L’espace vide est postulé par Newton, Laplace et Biot, l’espace plein par Descartes, Huygens, Young, Fresnel. Aucun des deux camps ne parle de modèles : par leurs théories, ils veulent expliquer le monde en termes de mécaniques.
Une troisième étape apparaît lorsque Maxwell forge ses conceptions électromagnétiques, et qu’il les étend à la lumière. Il introduit des « analogies physiques » mathématisables qui rompent avec la volonté de rendre compte du monde tel qu’il est.
Dès lors, les physiciens vont expliquer et prévoir au moyen de pertinences comprises entre des limites de validités. Les problèmes de ce que sont les photons et des rapports entre conceptualisation, modélisation, théorisation sont posés.

Le paradigme de la lumière, fil conducteur des modèles standard   WebTV-UM

Gilles Cohen-Tannoudji, Chercheur émérite au CEA-Saclay, Laboratoire de Recherche sur les Sciences de la Matière (LARSIM)

Avant d’entrer en crise, au tournant du XXe siècle, la physique classique était parvenue à une apogée, et elle s’était dotée, pour les deux interactions fondamentales alors connues, l’électromagnétisme et la gravitation, d’un modèle standard consistant en la théorie électromagnétique de la lumière de Maxwell et en la théorie de la gravitation universelle de Newton. Avec la théorie des quanta et la théorie de la relativité, élaborées en réponse à la crise de la physique classique, la physique connaît actuellement une nouvelle apogée, marquée par le triomphe du modèle standard de la physique des particules qui intègre l’électrodynamique quantique (la généralisation quantique et relativiste de la théorie électromagnétique de la lumière de Maxwell), et celui du modèle standard de la cosmologie qui rend compte de l’expansion de l’univers. Il s’agira, d’une part de mettre en évidence le caractère paradigmatique de la conception de la lumière dans l’évolution des idées en physique et d’autre part de souligner la portée épistémologique du concept de modèle standard.

Conférences invitées

Histoire d’une interaction réussie entre science et technique : les travaux d’Edmond Becquerel sur la nature de la lumière   WebTV-UM

Jérôme Fatet, Maître de conférence à l’ESPE de l’Académie de Limoges, Université de Limoges

Lorsqu’Edmond Becquerel (1820–1891) débute les travaux de recherche qui le conduiront à soutenir en 1840 une double thèse de physique et de chimie à la faculté des sciences de Paris intitulée « Des effets chimiques et électriques produits sous l’influence de la lumière solaire », les principes de la photographie ne sont pas encore publics. Il n’a alors que 18 ans et se passionnera pour cette nouvelle invention. Partageant son temps entre ses travaux scientifiques et l’exploration des principes de cette nouvelle technique, il saura utiliser ces derniers pour développer ses expérimentations sur la lumière, inventant et développant un nouvel appareil dont les principes reposent sur ceux de la photographie, l’actinomètre électrochimique. Cette interaction sera un succès scientifique qui lui permettra d’enrichir les connaissances sur la nature de la lumière et son étendue.
Nous présenterons, dans l’analyse des processus expérimentaux que construit Edmond Becquerel, les apports mutuels que peuvent avoir sciences et techniques et comment cette interaction peut nourrir les débats théoriques en cours. Si le concept épistémologique de
modèle n’est pas construit à l’époque, on pourra voir apparaître dans certains textes, le squelette des premières réflexions sur cette notion.

La couleur, un mode de perception de la lumière   WebTV-UM

Frédéric Geniet, Maître de conférence à l’UM, Laboratoire Charles Coulomb

La plupart des thèmes qui seront abordés au cours de cette conférence ont trait aux modèles et théories physiques de la lumière. Parallèlement à cette histoire s’est développée depuis les travaux de Newton une étude sur la couleur, mode de perception humaine de la lumière. Les grands noms de cette histoire, Newton, Maxwell, Young, Helmholtz, Chevreul ou plus récemment Schrödinger, pour ne citer que les plus connus parmi les physiciens, nous persuadent que le désintérêt relatif des physiciens contemporains pour cette question n’est pas justifié. Nous aborderons dans cette conférence les modèles et théories multi disciplinaires (physique / physiologie et maintenant neurophysiologie / psychologie) qui se sont affrontées au sujet de la couleur durant les XIXe et XXe siècles, et ont finalement permis d’aboutir à des modèles de perception de la couleur qui sont actuellement utilisés pour décrire la vision en couleur des mammifères, des oiseaux et des poissons.

Du mode d’émergence d’un objet technique : le laser, entre théorie quantique, modèles semi-classiques et tropes SF   WebTV-UM

Éric Picholle, chercheur CNRS au Laboratoire de Physique de la Matière Condensée, CNRS, Université de Nice Sophia Antipolis

Les physiciens aiment souvent à se représenter le développement d’un objet technique comme l’aboutissement d’un ample processus partant d’une théorie générale, bien maîtrisée et nourrie d’expériences de laboratoire, sur laquelle viennent s’appuyer des modèles de systèmes particuliers que le talent de l’ingénieur saura à son tour appliquer aux besoins du moment. L’histoire des sciences et des techniques se révèle moins ordonnée. Il arrive que l’invention, nourrie à bien d’autres sources, précède la théorie ; mais aussi, au contraire, que celle-ci la retarde plutôt qu’elle ne la favorise.
Ainsi, de l’aveu même de l’inventeur du laser (1957), Charles Townes, toutes les idées intervenant dans son développement étaient connues dès la fin des années 1920 (statistique de l’émission stimulée : A. Einstein, 1905 ; théorie semi-classique de l’inversion de population : R. Tolman, 1924 ; première observation d’une émission stimulée de lumière : R. Ladenburg, 1928 — et même pistolet à rayons de Buck Rogers, 1929). Je tenterai donc de montrer comment le modèle semi-classique des interactions entre matière et rayonnement, aujourd’hui encore omniprésent chez les laséristes, a dû conquérir sa légitimité face au programme de la théorie quantique et de l’école de Copenhague (1927) et, inversement, comment l’optique quantique investit depuis peu des technologies comme la cryptographie et le stockage d’information. Je discuterai par ailleurs le statut des représentations d’artistes du laser, qui ont rapidement envahi l’imaginaire scientifique et technique du grand public dès le début des années 1960.

Patrimoine scientifique de l’UM : des collections sans musée, pour quelle histoire ?

Muriel Guedj, Maître de conférence à l’UM, et Mathilde Frémont, assistante pédagogique à l’UM

Outre les collections de médecine et de pharmacie, le patrimoine scientifique de l’Université de Montpellier est constitué de collections originales et diverses, significatives d’une l’histoire scientifique d’envergure. Néanmoins, rarement exposées faute de lieu dédié, ces dernières sont méconnues voire négligées comme en témoigne l’état de conservation de certaines d’entre elles.
Ces collections sans musée n’en ont pas moins une histoire et les actions, auxquelles elles engagent (recensement, publications, site), interrogent l’historien : que donnent-elles à voir ? Autrement dit comment les présentations qui en sont faites s’inscrivent dans une histoire des représentations des sciences ? À partir d’une étude de cas centrée sur l’étude de la lumière, ce sont ces questions que nous discuterons, afin de participer à une réflexion nécessaire pour engager des recherches dans le domaine et faire de ces collections des objets d’études historiques.

Résumés des communications affichées (cliquer pour afficher/masquer)

Lorsque le résumé comporte plusieurs co-auteurs, le nom de l’auteur présentant la communication est souligné. Cliquer sur les icônes PDF pour voir les affiches.

[affiche]
La croissance exponentielle dans la démographie prémalthusienne

Benoît Rittaud
Université Paris-13, Institut Galilée, Laboratoire Analyse, Géométrie et Applications

Voir le résumé

La croissance exponentielle dans la démographie prémalthusienne

Benoît Rittaud
Université Paris-13, Institut Galilée, Laboratoire Analyse, Géométrie et Applications

Lorsque Malthus, à la fin du XVIIIe siècle, publie son célèbre Essai sur le principe de population, il l’ouvre sur un modèle exponentiel de croissance démographique riche d’une histoire déjà fort longue. Sans que l’on puisse établir une filiation directe avec Fibonacci (dont le célèbre problème des lapins ne sera exhumé que par Lucas au XIXe siècle), la généalogie des modèles démographiques exponentiels remonte en effet au moins à Cardan. Les premiers à s’intéresser pour de bon à ces modèles sont probablement les auteurs de récréations mathématiques. Parmi ceux-ci, le mathématicien jésuite Jean Leurechon fait figure de pivot : dans ses Selectæ propositiones de 1622, repris entre autres par Mersenne, il évoque les quantités astronomiques de grains, de brebis ou de poissons engendrés par des suites géométriques. Quelques décennies plus tard, ce type de croissance sera mis à l’honneur en Angleterre par les précurseurs de la science démographique que sont Graunt, Petty ou le méconnu Rudyerd. Jusqu’à Euler et Montucla inclus, un intérêt central de tous ces modèles démographiques exponentiels est d’ordre théologique : une suite géométrique permet en effet de donner à peu de frais une explication à la croissance rapide de certaines populations bibliques sans devoir invoquer de miracles non explicitement mentionnés dans les Saintes Écritures.

Références

  • B. Rittaud & J.-M. Rohrbasser, Les Modèles de croissance de population jusqu’au XVIIIe siècle : une archéologie des suites à croissance exponentielle, Paris : INED, 2015 (à paraître).
  • B. Rittaud, La Peur exponentielle, Paris: PUF, 2015.
  • B. Rittaud, “Les utopies exponentielles”, In: Actes des 4e rencontres internationales Jules Verne, Nantes : Coiffard, 2013.

 

[affiche]PDFPDF 774.0 Ko
Un modèle d’apprentissage des nombres réels par la théorie APOS

Laurent Vivier
Institut de Modélisation et Mathématiques de Montpellier (I3M), Université de Montpellier | Laboratoire de Didactique André Revuz (LDAR), Université Paris Diderot

Voir le résumé

Un modèle d’apprentissage des nombres réels par la théorie APOS

Laurent Vivier
Institut de Modélisation et Mathématiques de Montpellier (I3M), Université de Montpellier | Laboratoire de Didactique André Revuz (LDAR), Université Paris Diderot

Dans leurs études sur les rationnels en écriture décimale Dubinsky et al. (2013) ont relevé la nécessité d’un nouveau stage pour la théorie APOS (Arnon et al., 2014) entre le Processus et l’Objet, le stage de la Totalité. Ce stage correspondrait au fait de pouvoir penser la totalité des décimales (infini actuel), et pas uniquement en Processus (infini potentiel), avant d’encapsuler l’Objet, le nombre.
Or, deux Objets peuvent être encapsulés, la période et le nombre (Vivier, 2011, 2015, partie 2, section 4) et on peut proposer une Décomposition Génétique qui prenne en compte les données expérimentales de (Dubinsky et al., 2013) sans avoir à introduire un nouveau stage, mais qui nécessite des coordinations entre Schémas notamment pour prendre en compte la nécessaire égalité 0,999… =  1 pour obtenir les nombres rationnels (Rittaud et Vivier, 2014).
Néanmoins, ce nouveau stage, Totalité, semble nécessaire pour les nombres réels – il n’y a plus l’Objet période. Une suite de Cauchy avec un contrôle des erreurs, ou deux suites adjacentes, permettrait d’avoir un Processus pour obtenir les décimales d’un nombre pouvant être encapsulé en l’Objet nombre réel.
Cela serait à approfondir et peut-être que, dans le cas des rationnels, avons-nous besoin de deux Décompositions Génétiques : une spécifique aux nombres rationnels, sans nécessité d’un nouveau stage, avec l’Objet période et une deuxième, plus générale sur les nombres réels, qui nécessiterait le nouveau stage Totalité.

Références

  • Arnon, I., Cottrill, J., Dubinsky, E., Oktaç, A., Roa Fuentes, S., Trigueros, M. & Weller, K. (2014). APOS theory, a framework for research and curriculum development in mathematics education, Springer.
  • Dubinsky, E., Arnon, I. & Weller, K. (2013). Preservice teachers’ understanding of the relation between a fraction or integer and its decimal expansion: the case of 0. and 1. Canadian Journal of Science, Mathematics and Technology Education, 13(3), 232-258.
  • Rittaud, B. & Vivier, L. (2014). Different praxeologies for rational numbers in decimal system – the 0.9 case, Proceedings of Cerme 8, Antalya, Turquie, 363-372.
  • Vivier, L. (2015). Sur la route des réels, note d’Habilitation à Diriger les Recherches. (à paraître).
  • Vivier, L. (2011). El registro semiótico de los Desarrollos Decimales Ilimitados. El cálculo y su enseñanza, Vol. III, México.

PDFVoir/télécharger l’affiche – PDF 774.0 Ko

 

[affiche]
Une approche anticipée de la modélisation scientifique à l’école maternelle

Estelle Blanquet
Centre de Recherches en Histoire des Idées, Université de Nice Sophia Antipolis (CRHI, EA 4318), CAPEF (ESPE de Nice) & LDES (Université de Genève)

Voir le résumé

Une approche anticipée de la modélisation scientifique à l’école maternelle

Estelle Blanquet
Centre de Recherches en Histoire des Idées, Université de Nice Sophia Antipolis (CRHI, EA 4318), CAPEF (ESPE de Nice) & LDES (Université de Genève)

L’appropriation de la notion de modélisation est un objectif explicite du programme de physique-chimie du collège. On sait toutefois qu’elle pose aux élèves de réelles difficultés, en particulier d’ordre mathématique et liées à la manipulation des outils formels. Viennent s’y ajouter celles, distinctes, liées à la compréhension même de la nature et du statut d’un modèle, et à l’acquisition de trois compétences méthodologiques fondamentales :
— le recul (distinction entre le monde physique et ses représentations)
— la capacité de naviguer entre modèle et système représenté
— l’identification et l’extraction de paramètres pertinents.
Une stratégie alternative pour limiter les décrochages liés au “choc du formalisme” au collège pourrait alors être d’anticiper ce travail d’ordre épistémologique en le reportant au moins en partie sur l’école primaire, voire dès la maternelle.
Afin de tester l’accessibilité de ces compétences pour des élèves de grande section, nous avons développé une séquence pédagogique basée sur un album jeunesse (Plouf ! de Philippe Corentin). Les résultats obtenus auprès de 61 élèves indiquent que ces trois compétences leur sont accessibles dans une très large mesure. Aucun indice n’indique en revanche qu’ils aient identifié la modélisation comme un élément de méthode scientifique et une stratégie utilisable dans d’autres contextes.

 

[affiche]
La théorie élémentaire des modèles – une épistémologie effective

Viviane Durand-Guerrier
Université de Montpellier, I3M Institut de Mathématiques et de Modélisation de Montpellier, UMR 5149

Voir le résumé

La théorie élémentaire des modèles – une épistémologie effective

Viviane Durand-Guerrier
Université de Montpellier, I3M – UMR 5149

Au cours de la première moitié du XXe siècle, Tarski développe « La méthodologie des sciences déductives » (Tarski, 1969) qui deviendra la « Théorie des modèles ». Cette élaboration théorique s’appuie sur deux idées très simples mais extrêmement fécondes : 1/la notion de satisfaction d’une phrase ouverte par un élément du domaine d’objets considéré – 2/ La notion de modèle d’une formule du calcul des prédicats du premier ordre dans une interprétation donnée (Tarski, 1944, 1969)).
Ceci permet à Tarski de définir la notion de conséquence logique d’un point de vue sémantique :
La proposition X suit logiquement de la classe de propositions K si tout modèle de K est un modèle de X (Tarski, 1936, 1972, Sur le concept de conséquence).
Il dégage ensuite la notion de système axiomatique formel associé à une théorie ou à un domaine de réalité. Un tel système axiomatique peut être réinterprété dans d’autres domaines d’objets ; ces réinterprétations sont alors des modèles du système axiomatique formel et tout théorème prouvé à partir du système axiomatique demeure un théorème dans toute interprétation du système axiomatique.
Ceci conduit à la méthode de « preuve par interprétation » : pour prouver qu’un énoncé donné de la théorie n’est pas conséquence logique des axiomes, on cherche un modèle du système axiomatique correspondant qui ne soit pas un modèle de la formule associée à cet énoncé.
Nous donnerons un exemple de l’utilisation de la théorie élémentaire des modèles pour résoudre un problème de « certitude » issu du Kangourou des mathématiques, 1994 (Durand-Guerrier, 2008). Nous mettrons ainsi en valeur le fait, souligné par Sinaceur (1991), que l’analyse logique au sens de la théorie élémentaire des modèles « apparaît comme une épistémologie effective dans la mesure où la réflexion est orientée vers et investie dans l’agir ».

Références

  • Durand-Guerrier, V. (2008), Truth versus validity in mathematical proof, ZDM The International Journal on Mathematics Education 40/3, 373-384.
  • Sinaceur, H. (1991), Logique : mathématique ordinaire ou épistémologie effective ?, In: Hommage à Jean Toussaint Desanti, TER.
  • Tarski, A. (1936). Sur le concept de conséquence, In: Tarski (1972), Logique, sémantique et métamathématique, Vol. 1, pp. 157–269, Paris : Armand Colin.
  • Tarski, A. (1944). La conception sémantique de la vérité et les fondements de la sémantique, In: Tarski, A. (1974), Logique, sémantique et métamathématique, Vol. 2, Paris : Armand Colin.
  • Tarski, A. (1969). Introduction à la logique. Paris-Louvain : Gauthier-Villard.

 

[affiche]PDFPDF 394.0 Ko
Mathématisation et modélisation en Sciences du Vivant, une étude d’épistémologie contemporaine pour nourrir un questionnement didactique

Sonia Yvain
Université de Montpellier, I3M Institut de Mathématiques et de Modélisation de Montpellier, UMR 5149

Voir le résumé

Mathématisation et modélisation en Sciences du Vivant, une étude d’épistémologie contemporaine pour nourrir un questionnement didactique

Sonia Yvain
Université de Montpellier, I3M, UMR 5149

Les programmes actuels du secondaire mettent en avant l’importance de proposer aux élèves des activités de modélisation, mais dans les activités proposées en classe, le processus de mathématisation est rarement laissé à l’initiative des élèves, ce qui en limite la portée. Dans notre travail de recherche, nous étudions la question didactique suivante :
Comment faire la dévolution du processus de mathématisation aux élèves dans l’activité de modélisation ?
Comme préliminaire à notre étude didactique, nous avons conduit une étude épistémologique visant à clarifier les relations entre mathématisation et modélisation (Bouleau 1998, Giorgio 1996, Lambert 2007, Varenne 2012). Au début du 20ème siècle, on assiste à l’essor du développement de la mathématisation des sciences du vivant qui selon Giorgio (1996) renonce à toute tentative d’aboutir à une image unifiée de la nature et qu’il qualifie de modélisation mathématique.
Pour compléter cette étude, nous nous intéressons aux pratiques sociales de référence contemporaines dans un processus de modélisation, afin de dégager des aspects qui pourraient être transposés en classe. Nous conduisons pour cela des entretiens auprès de chercheurs en sciences du vivant et en mathématiques appliquées aux sciences du vivant.
Dans cette communication affichée, nous présenterons les principaux éléments de notre étude épistémologique sur la modélisation et la mathématisation dans les sciences du vivant, et nous montrerons comment nous nous sommes appuyés sur notre étude épistémologique pour élaborer nos entretiens et les analyser. Nous donnerons également nos premiers résultats.

Références

  • Bouleau, N (1998). Philosophies des mathématiques et de la modélisation. Du chercheur à l’ingénieur, L’Harmattan
  • Giorgio, I (1996). La mathématisation du réel : essai sur la modélisation mathématique, Paris, Seuil
  • Lambert D, (2007). Quelques réflexions sur la mathématisation de la biologie, Revue des questions scientifiques, 178(1): 33-66.
  • Varenne F. (2012). Épistémologie des modèles et des simulations, Thèse, Université Paris-Sorbonne, HAL-00674144 [ext.link]

PDFVoir l’affiche – PDF 394.0 Ko

 

[affiche]
Modélisation et simulation en mathématiques et informatique – aspects épistémologiques et perspectives didactiques

Simon Modeste
Université de Montpellier, I3M Institut de Mathématiques et de Modélisation de Montpellier, UMR 5149

Voir le résumé

Modélisation et simulation en mathématiques et informatique – aspects épistémologiques et perspectives didactiques

Simon Modeste
Université de Montpellier, I3M Institut de Mathématiques et de Modélisation de Montpellier, UMR 5149

L’informatique prend une place grandissante dans les sciences comme dans l’enseignement et l’on évoque souvent les mutations profondes des pratiques (en sciences physiques et sciences de la vie, mais aussi sciences humaines et sociales) qu’induisent les modèles et simulations informatiques (Chazelle, 2013). À première vue, il semble que le rapport entretenu avec les mathématiques est d’un autre ordre : les deux disciplines partagent une certaine épistémologie, un certain rapport au langage et certains rapports au monde. Ainsi, dans l’interaction avec les autres disciplines scolaires, informatique et mathématiques vont occuper une même niche, celle de fournir des cadres de modélisation et de simulation : « l’informatique dans les sciences devient bien plus qu’un outil de calcul. Elle conduit à une […] “pensée informatique”. Les algorithmes y sont placés au même niveau que les équations. Cette pensée informatique s’applique aussi aux sciences du vivant, où les équations font parfois défaut. » (Académie des Sciences, 2013).
Dans une approche particulière à la didactique des sciences (Dorier, 2016), nous proposons de considérer ces dimensions de modélisation et de simulation en mathématiques et en informatique sous un angle épistémologique (Varenne & Silberstein, 2013), afin de questionner leur enseignement, leur apprentissage et la place qui leur est donnée. Nous nous appuierons sur des exemples issus des curriculums actuels en mathématiques et informatique.

Références

  • Académie des Sciences (2013). L’enseignement de l’informatique en France. Il est urgent de ne plus attendre, Rapport No. 513. Télécharger [ext.link]PDF
  • Chazelle, B. (2013). L’algorithmique et des sciences. Paris Collège de France : Fayard.
  • Dorier, J.-L. (2016). La didactique des mathématiques, une épistémologie expérimentale. In: M. Bächtold, V. Durand-Guerrier, & V. Munier (Eds.), Épistémologie et Didactique. Actes de la troisième journée épistémologie de l’Université Montpellier 2. Presses Universitaires de Franche-Comté (à paraître).
  • Varenne, F. & Silberstein, M. (Eds.) (2013). Modéliser & simuler. Épistémologies et pratiques de la modélisation et de la simulation. Vol. 1. Paris : Éditions Matériologiques.

 

Événements associés (cliquer pour masquer/afficher)

• Séminaire interuniversitaire HiPhiS (Histoire et Philosophie des Sciences) le mardi 2 juin 2015 à 17h30, UM Polytech Amphi Peytavin (campus Triolet bât. 31)

Enquête sur le concept de modèle
Conférence de Pascal Nouvel, philosophe, Professeur à l’Université Paul-Valéry Montpellier

Qu’est-ce qu’un modèle ? Que signifie « modéliser un problème » ? Et, en premier lieu, ces expressions ont-elles le même sens dans tous les domaines dans lesquels on les trouve employées ? Ont-elles le même sens en logique qu’en physique ? En biologie que dans les sciences de l’ingénieur ? En climatologie qu’en économie ? Dans les sciences de l’environnement que dans les sciences politiques ?
C’est à ces questions que s’attache tout d’abord cette
Enquête sur le concept de modèle. On y trouve successivement exposée, de manière claire et didactique, la signification précise du mot « modéliser » dans chacune de ces spécialités scientifiques. Vient ensuite le temps de la réflexion philosophique : est-il légitime de penser, comme le prétend l’épistémologie spontanée des scientifiques d’aujourd’hui, que la construction de modèles distingue la science de toute autre démarche intellectuelle ? Et peut-on considérer que la modélisation d’un problème correspond toujours à sa simplification ? Les notions de métaphore, d’analogie et de modèle sont alors soigneusement examinées et comparées. L’ensemble fait ressortir les multiples facettes d’un concept central en science.
Voir en ligne : le programme des séminaires HiPhiS

• Agora des savoirs – saison 2014–2015 « (R)évolution(s) », les mercredis à 20h30, Centre Rabelais

Voir en ligne : le programme de l’Agora des savoirs saison 2014-2015

Le comité d’organisation

Le comité d’organisation de cette 4e Journée Épistémologie est constitué de chercheurs, d’enseignants-chercheurs de diverses disciplines, ainsi que d’étudiants de l’UM en 2e ou 3e cycle. Dans l’ordre alphabétique :

Manuel Bächtold (UM FdE), Robin Birgé (doctorant UM), Laurent Boiteau (CNRS), Thierry Brassac (UM), Anastasios Brenner (UPVM), Alain Bronner (UM FdE), Isabelle Busseau (CNRS), Claude Caussidier (CNRS), Aurélie Chesnais (UM FdE), Elizabeth Denton (BIU Montpellier), Viviane Durand-Guerrier (UM FdS), Daniel Favre (UM FdE), Muriel Guedj (UM FdE), Hélène Hagège (UM FdE), Thomas Hausberger (UM FdS), François Henn (UM FdS), Grégoire Molinatti (UM FdE), Valérie Munier (UM FdE), Pascal Nouvel (UPVM), Denis Puy (UM FdS), Henri Reboul (UM FdS), Christian Reynaud (UM FdE), Nicolas Saby (UM FdS), Lionel Simonneau (INSERM), Sonia Yvain (doctorante UM).

Documents à télécharger

pdfFlyer de la 4e Journée Épistémologie – PDF477.0 Ko

jpgAffiche 4e Journée Épistémologie A4 haute résolution – JPG787.2 Ko

pdfAppel à communications affichées 2015 – PDF104.1 Ko


L’affiche de la journée (cliquer pour masquer/afficher)

Affiche 4e Journée Épistémologie 2015