Chapitre
Du « structuralisme » aux corpus numériques. – Dès les débuts de l’informatique, le traitement automatique de textes théoriques a été pratiqué par des pionniers comme Roberto Busa, qui dans les années 1950 mettait saint Thomas d’Aquin sur cartes perforées. Prolongeant ces usages pour l’essentiel philologiques, le projet d’une description proprement linguistique de ces textes a été formulé dans les années 1960 par les premières sémiotiques textuelles (alors même que la linguistique, avec l’essor du chomskysme, renforçait le privilège millénaire de la syntaxe phrastique). Il s’agissait, en s’inspirant d’auteurs comme Lévi-Strauss ou Greimas, de considérer les textes philosophiques comme des œuvres, descriptibles avec la même méthodologie que des mythes ou des œuvres littéraires (voir Rastier, 1971) ; et d’autre part d’utiliser les instruments de la lexicométrie pour en dévoiler les non-dits idéologiques, et poursuivre par ce biais l’entreprise d’auteurs comme Althusser et Foucault (voir Pêcheux, 1969). Foucault propose de caractériser les discours scientifiques par l’agencement et l’évolution de leurs formations discursives, structurant les relations entre objets, types d’énonciation, concepts et choix thématiques (Foucault, 1969, p. 53). Tant Althusser que Foucault prolongeaient ainsi, dans un contexte politique radicalisé, les intuitions et les travaux d’auteurs comme Gaston Bachelard, sur les seuils épistémologiques devenus « coupures », ou comme Georges Canguilhem, à propos des transformations diachroniques de concepts, ou encore comme Martial Guéroult, à propos de l’architectonique des œuvres philosophiques (voir Valette, 2010)…
Auteurs
html et feuilletage (par chapitre) Ajouter au panier
- Mis en ligne sur Cairn.info le 20/04/2015
- https://doi.org/10.3917/puf.manig.2011.01.0073
![Chargement](./static/images/loading.gif)
Veuillez patienter...