The two principles of psychic events in the digital age.

(Traduction: deepl)

Computers and robots, which are and will be constantly improved to interact with us, all have a common basis, a unique feature in a way: their ability to hold our interest or more precisely to capture our attention. The notion of capturing attention has already been dealt with by other authors. Thus, in a collective work that he edited, « L’économie de l’attention », Yves Citton, professor of literature, begins by defining attention as a « form of mental energy » (1). To approach this form of mental energy that is attention, let us start here from a short but essential article by Sigmund Freud dated 1911 and entitled « Formulations on the two principles of the course of psychic events » (2).

The ambition of the article is « to examine (…) the relation (…) of man in general to reality (…) » (3). The author starts from the « oldest » processes in the elaboration of the psyche of each human being, which he calls primary processes. At the time of the appearance of these processes in the early stages of life, « there was no other kind of psychic process ». These « tend to obtain pleasure » and their main tendency is called « pleasure-displeasure principle (or more briefly pleasure principle) ». « (4) In order to understand that, in the baby, the first psychic processes are of the order of what I will name pleasure or distress, it is necessary to keep in mind that at the beginning, the little human does not distinguish the difference between inside and outside, between him and the other; he does not think, does not apprehend the world as we are used to do. Freud supposes that « the state of psychic rest was initially disturbed by the imperious demands of inner needs », in other words, primarily by hunger. This hunger creates a state of tension that is expressed by cries and motor manifestations, a kind of distress: the chicks do the same! If one does not remain hungry, the satisfaction of the physiological need, through breast milk or a substitute, soothes the tension and gives the little one an obvious pleasure. But, as we know, human mothers are not permanently available for the feeding call. It is thus created for the baby a « persistent defect of the expected satisfaction », and the psychic apparatus must « resolve to represent the real state of the outside world and to seek a real modification ». It is the progressive appearance of the second principle of the course of the human psychic events: the principle of reality which aims to take into account what is and not only to shout to have what calms. The establishment of the principle of reality inaugurates in the human being the formation of the secondary processes and allows little by little the appearance of consciousness and rationality.

To take this step « requires a series of adaptations of the primary psychic apparatus », such as using its « sensory qualities » with more and more acuity. And it is then that a « particular function is instituted which must periodically take data from the outside world so that it can be recognized in advance when an inner need arises that cannot be postponed: attention.  This activity goes to meet the impressions of the senses instead of passively waiting for them to appear. It is likely that at the same time a system of marks is being introduced which is intended to deposit the results of this periodic activity of consciousness; this is part of what we call memory. « And, a little further on: « … appears the act of judgment which must decide impartially whether a given representation (…) is or is not in agreement with reality.  The motor discharge (…) then takes on a new function, insofar as it is used for an appropriate modification of reality. It changes into action. The suspension, which has become necessary, of the motor discharge is ensured by the process of thought which is formed from the activity of representation. « As one can easily imagine, this process of integration of the principle of reality with the principle of jouissance « does not take place all at once or simultaneously along the whole line. « Let us add that it is at this point – a process of thinking from the activity of representation – that human destiny begins to differentiate itself strongly from that of other animals: even if some of the latter are far from being « beasts », this intelligence is without common measure with human beings.

The flattery of impulses and the invitation to satisfy archaic impulses by means of digital representations and images are undeniably on the side of the principle of jouissance, i.e. a tendency to appease impulsive tensions through primary processes. Of course, the principle of jouissance is as indispensable to our psychic functioning as the principle of reality which leads us to defer or to renounce jouissance by the principal means of the use of our « sensory qualities », which are to be situated on the side of our animality, but also by the means of education which develops our specific consciousness of the World. The principle of reality allows the passage of the life of the societies and the life in good intelligence by taking part in creating a cultural varnish always fragile in front of the possible individual and collective impulsive outbursts.

This text shows the appearance of attention at the very beginning of the constitution of the psychic apparatus, correlatively to the appearance of memory and even before those of consciousness, language, and therefore reasoning. The digital apparatus, more and more often connected to telecommunication networks, captures our attention and proposes a multitude of data coming from the outside world by soliciting our senses, especially our sight and hearing, as well as our reasoning. In the use of digital technology, the interfaces proposed by manufacturers are increasingly close to human modes of communication, thus requiring less and less intellectual effort. In the beginning it was necessary to learn a « machine language » to communicate with one of them, whereas now, for ordinary people, it is the machine that adapts to our modes of reasoning and increasingly to our feelings and emotions. This continuous facilitation of use has allowed the mobilization of an archaic attention, implemented by some for essentially mercantile purposes.

In his text, S. Freud adds: « (…) the sexual drive (…) remains much longer under the domination of the pleasure principle. « (…) There is a « weak point in our psychic organization »: the possibility of « bringing back under the domination of the pleasure principle thought processes that had already become rational. « It is clear that the particularly important impulsive flattery implemented by digital means in its current organization skillfully plays on these attractive remnants of our impulsiveness. Another quotation from the text allows us to definitively understand the psychic process at stake: « A general tendency of our psychic apparatus (…) makes us cling tenaciously to the sources of pleasure available to us and we find it difficult to renounce them. (…) a form of thought activity is separated by cleavage; it remains independent of the reality test and subject to the principle of pleasure. This is what we call the creation of fantasies, which already begins with children’s games (…) « This particularity has been present in us since the dawn of time, but the infinite diversity of instantaneous digital proposals shakes up individual fantasizing with a multidirectional and overabundant offer that can even in extreme cases lead to an artificial, addictive hyper-stimulation.

On the one hand, part of what we call memory is made up of a system of registered trademarks, says S. Freud, and on the other, an arrangement of signs, stored symbols (« live » or « dead » memory and, on another scale, « firm » and « clouds » of data), cyber-machines tell us, have enabled the constitution of memories that can interact. In a much more complex way than our current mechanical projections, memory is, as we know, a set of processes also used by the living, to engrammer (5) evolutionary data whose origin is unknown, for example in genomes. Each human being thus carries on the one hand a deep internal, genetic memory, and on the other hand a « living » memory, linked to our capacities of rationalization and consciousness. It is also up to S. Freud to have spotted an intermediate memory which escapes our consciousness but which plays on our behaviors and which is located in a psychic space called the Unconscious. Digital cameras have no unconscious, no impulse, no affect.

The ability to produce and project on an external support of the memory reusable at will is one of the great human psychotechnical adventures, it probably started with significant traces, then continued with writing. With digitization using symbols, a great step was taken, as this invention began to produce quite striking and largely unexpected effects. First of all, thanks to the amazing technical evolution, including the miniaturization of microprocessors, the memory capacity of computers has increased at a prodigious speed that was unimaginable not long ago. So much so that this memory capacity now immeasurably exceeds that of the most powerful humans. The human conscious memory not only has limits but also great variability from one individual to another; it also has the big and frequent disadvantage of being able to deteriorate either because of often progressive diseases, or because of accidents, or because of a kind of somatic wear and tear. One can imagine, of course, the therapeutic interest for some people to have an auxiliary memory and many have already seized it. We can also see the interest of the possibility for each person to supplement his human memory thanks to machines. Most humans using digital technology are, in fact, already « augmented humans » with an auxiliary memory comprising a certain number of documents, photos, videos, e-mails, etc.

In view of the enormous digital memory capacities at our disposal, this potential is very much under-utilized: There is no doubt that better oriented learning about the selection and personal arrangement of individual data could increase the use of our ancillary memory capacities and thus our intellectual efficiency even more considerably. For, in addition to a certain alertness of mind, what we call intelligence in a human being is often also the ability to store more information in memory than others and to retrieve it wisely… A change has taken place in the possibilities of accessing quantities of information of a new order of magnitude, but it is still in its infancy concerning the individual and collective ordering of this otherwise inefficient memory potential. As a result, we often end up with a situation of over-information. It would be a matter of learning to order more knowledge through new learning, the results of in-depth psychological research, from the very first years of education. Watch » and « alert » tools are attempts to provide a technical response to this psychological difficulty.

The societal stakes around the memorization capacities of machines are enormous. The major Internet and telecommunications consortiums are doing everything they can to delegate our memory appendages to them, arguing for practical reasons for the user, reasons that are highly debatable. The reason is that whoever holds the digital traces has enormous power of influence, or worse, surveillance, constraint and nuisance. And the more traces a consortium has, the more power it has, especially financial power. Another approach, quite simple and technically possible, is for each individual to delegate as few traces as possible. The idea is to build up his or her own little cloud or protected database, which we used to do recently with the help of « keys » (removable memory storage media) or external hard drives, and which is now being actively sought to divert us, given the market value of these traces that reveal many elements of our mental and impulsive lives. It is therefore up to each person to control his or her digital space, an extension to be invented of his or her psychic space. Digital technology gives us possibilities, it also has its requirements: well-ordered digitization starts with oneself!  In the same way, public data is currently open (open data) in a way that is not very transparent and arbitrary, and seems above all to be put at the service of digital and financial entrepreneurship. Some public data contains a lot of private information, it does not have to be « open » to the wind. Here we are faced with a question of ethical choice, where politicians should have had to make decisions that will benefit greatly from being informed by the human sciences and philosophy.   More and more we will thus be confronted with choices concerning our own transformations, both individual and collective, considerably increasing our powers of ordering ourselves and the World.

Because of his ability to handle symbolic languages, man has since time immemorial been able to transmit from generation to generation new knowledge and know-how acquired and increased as time goes by. The new potentials linked to digitally memorizable quantities coupled with ultra-fast calculation possibilities are frantic the counters of our lazy consciences. Companies and individuals surprised by the strength of the momentum must make an effort to integrate into a kind of sight-seeing navigation, so fast are the changes. An effort of refocusing around the human seems to be necessary, dynamic psychology is particularly called upon.

Let us return one last time to the text of S. Freud: During the progressive establishment of the principle of reality, a part of the psychic energy which, in the baby, had previously tended to force its way out by all the primary means, by cries and movements of discharge, can gradually be transformed into deliberate action; for this it needs to be suspended, channeled, sluiced by a process of thought (which a computer does not have) which is formed from the activity of representation.

After having reflected on the notion of attention and its capture, so central to our uses of digital technology, we now come to the notion of representation. The latter was taken up by S. Freud from the German philosopher, psychologist and pedagogue Johann Friedrich Hebart (1816-1893), who reasoned the psyche in terms of the « mechanics of representations ».  In order to shed light on psychic processes, Freud distinguished between « figurative representation », long translated as « representation of a thing », and « verbal representation », long translated as « representation of a word ». The figurative representation is essentially pictorial, whereas the verbal representation is essentially acoustic, or textual. Both allow the emergence of psychic representatives, i.e. mental expression from somatic excitations. The appearance of these mental representatives of the impulse comes to the end of the process that allows thought and thoughtful action. According to Freud, any impulse is expressed in the two registers of representation and affect. A « quantum of affect », (a variable quantity of impulsive energy), is thus associated with our psychic representations. Our actions are, according to him, motivated by « goal-oriented representations » or « representations of desires », themselves inspired by « the experience of satisfaction ». A computer or a robot obviously has no personal « representation of desire » or « experience of satisfaction ». A computer program expresses itself only in the register of the representation but can be programmed to simulate the affect, and to stimulate it too. This distinction between figurative representation and verbal representation is important, because the modes of entanglement of image and word are in many ways disrupted in our use of digital technology.

The main Freudian contribution is the identification of a part of our psycho-affective functioning that is unconscious and of the relations between this unconscious part and our conscious part. The unconscious processes are our first way of dealing with impulses. Although they are not conscious, it is the great merit of S. Freud to have been able to decipher the logic, the mode of functioning. In the work « L’inconscient » (1915), Freud wrote: « conscious representation encompasses figurative representation plus the corresponding verbal representation, while the unconscious representation is figurative representation alone. « (6) In other words, in the unconscious there would only be images. Jacques Lacan went further on this question. In any case, this « unconscious logic » functions differently from our conscious reason. The logic of our conscious reason is much closer to the functioning of computers because they are the emanation of it. As those interested in the psychodynamic approach already know, two fundamental phenomena shed light on the unconscious functioning: condensation and displacement. Condensation is the fact that two elements can be found in one, for example in a dream, a privileged place of expression of the unconscious, a character can have the look of a father and the beard of a grandfather. According to S. Freud, the various elements at play in a condensation are thus found at a crossroads representation and their intensity comes from the fact that « on these crossroads representations, come to be added the energies which were moved along the various associative chains ». (7) Condensation does not only affect images but also words. Displacement is the fact that a quantity of energy attached to one representation can be moved to another representation along an associative chain. « Through the process of displacement, one representation can give up to another all the quantum of its investment… ». (8)

In the primary process, the energy is closer to the drive. The secondary mode of representation uses the hypothetico-deductive logic of conscious activities. In the primary processes, again according to S. Freud, energy is said to be free, whereas in the secondary processes it is bound by all the logical operations generated by the hypothetical-deductive mode of reasoning.

Interactive digital devices offer us representations and solicitations established by eminently rational technical processes. The digital is a rational invention, very « secondary » but capable of touching even our most « primary », oldest representations of the impulse. The fact is that these digital representations of the real and the imaginary are more and more sophisticated and as such deserve to be considered and qualified in a new way. For example, the most advanced digital immersion spaces or robots are artificial constructions that are disturbing and even deceptive for some people who believe they are somehow endowed with natural qualities for the former, life and feelings for the latter. Interacting with our perceptions, our attention, our representations and our affects, we are faced with new interlocutors, artificial because they are the fruit of human elaboration, but extremely representative and communicative.

When he discovered the existence of primary psychological processes that remain underlying, but active, throughout existence and that these processes functioned on other bases than our consciousness, that is to say, when he described the Unconscious, S. Freud gave a sufficiently clear representation of this new space and its relations with the consciousness. In order to define its complexity and analyze its functioning, inspired by the notion of Greek metaphysics, he proposed a metapsychological approach to the psychic apparatus. This approach, still on the agenda, is based on three axes, three complementary reading grids necessary to describe a psychodynamic process: the topical axis, the dynamic axis and the economic axis.

Establishing representations of the psychic apparatus in order to make the complexity of its functioning more comprehensible has been a permanent preoccupation of S. Freud. The spatial aspect of the theory of the psychic apparatus was highlighted with the notion of « psychic place », places that he deliberately distinguishes from anatomical places. For a given subject, he thus describes intrapsychic places within the two topics he has developed over time. For the second topic, the main spatial instances are the id, the self and the superego (9). But this researcher was not satisfied to delimit these spaces, he sought the functions of these psychic places, of these instances. He then described the interrelationships between these instances, for this he used the approach that he called dynamic, which is especially interested in the conflicts that appear between the instances. The impulsive being a question of energy, the inventor of psychoanalysis was finally interested in the circulation and the modes of distribution of impulsive energy, which he called the economic approach (which finds its fundamental axiom in the laws of thermodynamics). Going even further, in the light of their clinical observations, some of S. Freud’s successors have located some sub instances, such as the ideal self and the ideal of the self, which together compose the superego. One thus sees appearing relations inside the psychic places in addition to the relations between the psychic places. These relations describe among others the interdependence between the psychological systems or spaces. In their « Vocabulaire de la psychanalyse », Jean Laplanche and J.-B. Pontalis note that by this conception of the psychic apparatus, « the intrasubjective field tends to be conceived on the model of intersubjective relations, the systems are represented as relatively autonomous persons in the person. » (9)

In any case, this particularly fine way of considering the intrapsychic would benefit from being extended to our digital projections. On the one hand, the analysis of the digital on a human scale in its entirety would probably be enriched by a system of anthropomorphic representation of the stakes detached from the machinic. One could consider this system of representation as the equivalent or the extension of the detachment operated by S. Freud when he posed representations of the psychic apparatus differentiated from the anatomic. On the other hand, on an individual scale, it is helpful to now consider the human subject including its externalized numerical appendages. By this I mean that, for example, the documents put in memory by a given human being on a machine or a memory medium, as well as the organization chosen to put this memory in order, can, it seems to me, rightly be considered as a rationalized part of himself, a part that is however eminently subjective since it is unique in its creation. Each connected human being can now build over time a personal digitalized space, with automatisms organized by himself and by others, a data reservoir echoing in part his rational elaborations but why not, just as much, his impulsive and emotional tendencies passed to the digital philter.   In the same way it is necessary to note that, for some, programmed automatons, robots, are already part of this digitized space and are in part spaces of projection of their subjectivities, of their psychic functioning.

Given the very rapid evolution of the possibilities of access to the form of rationality generated through digital technology, we are invited to revise to a certain extent the metapsychological instrument of Freudian analysis: we can see that in the face of the impulsive anchoring, a new specific rational anchoring is clearly imposed that irreversibly influences our lives in an unexpected way. Our relationship to knowledge, to knowledge and therefore our possibilities to influence the living, starting with ourselves, are greatly modified. For example, the prodigious speed at which the human genome could have been deciphered could not have occurred without the use of digital technology. But just as there is no pure impulsiveness, there is no pure rationality in humans, these are two vanishing points in the representations of the psychic apparatus. It is however necessary to include in one way or another this new dimension of our relation to rationality so that the psychodynamic approach keeps its relevance and its efficiency. Would it be necessary to go as far as to speak of a new psychic place, a new instance including externalized numerical appendages? In the current state of reasoning, this would seem excessive or at least premature. It is perhaps sufficient to consider this taking into account as a consequent and externalized subset of the Ego.

Philippe Decan Nantes March 2018

Notes :

– 1 Yves Citton (under the direction of) « The Attention Economy New Horizon of Capitalism? ». Editions La Découverte, Paris, 2014, P. 7

– 2 Sigmund Freud, in « Résultats idées problèmes », Tome 1, texts compiled by Jean Laplanche, P.U.F., France

– 3 A reality that Sigmund Freud did not yet distinguish from the Real, as Jacques Lacan would later do.

– 4 Taking into account the evolution of our knowledge in psychodynamics, I propose here to rename this first tendency principle of jouissance-distress, or principle of jouissance by possibly reserving the denomination principle of pleasure at later stages of development involving precisely a part of secondary processes. This questioning would, of course, require further substantiation. The pleasure-joy distinction alone would deserve a complex and important development… But this is not the subject.

– 5 « Engram: Hypothetical organic trace that would constitute the physical support of memory » (Larousse).

– 6 Sigmund Freud, « L’inconscient » (1915), in Métapsychologie (textes réunis), Gallimard, Coll. Idées, 1968, Paris, trans. J. Laplanche and J.B. Pontalis, P 156.

– 7 Laplanche and Pontalis, « Vocabulaire de la psychanalyse », PUF, edition 2014, P 908.

– 8 Sigmund Freud, « L’inconscient » (1915), in Métapsychologie (textes réunis), Gallimard, Coll. Idées, 1968, Paris, trans. J. Laplanche and J.B. Pontalis, p. 119.

– 9 « Vocabulaire de la psychanalyse », Jean Laplanche and J.-B. Pontalis, PUF, coll. Quadrige, edition of 2014, Page 488: « … the Ca, the impulsive pole of the personality, the Ego, the authority which arises by representing the interests of the totality of the person and as such invested with narcissistic libido, the Superego, finally, the authority which judges and criticizes, constituted by internalization of the parental requirements and prohibitions ».

De l’épistémologie à l’éthique

EagerLividIsabellineshrike-max-1mb

Les découvertes scientifiques ainsi que leurs applications semblent s’accélérer à notre époque. Le pouvoir de l’humain sur la nature est maintenant tel qu’il vient sérieusement mettre en danger les grands équilibres de celle-ci.

Les sciences dites exactes véhiculent, pour la plupart des gens, la vérité indéniable. Les autres domaines scientifiques tentent tant bien que mal de se hisser à un niveau de vérité comparable à l’aide de méthodes qui se veulent irréprochables mais qui demeurent à certains égards discutables. L’unité des savoirs scientifiques est postulée à l’aune de ces vérités confortées par l’efficience technologique et est érigées en dogme. C’est la tyrannie de l’efficience sur la matière.

Pourtant la plus grande partie des scientifiques, qu’ils appartiennent au domaine des sciences que l’on appelle couramment dures ou qu’ils appartiennent au domaine des sciences qu’il est plaisant d’appeler douces, savent bien que cette unité de la science est une illusion trompeuse.

Au sein même de certaines disciplines scientifiques actuelles il n’existe pas de consensus permettant d’affirmer l’unité de leur vérité. Par exemple, les deux principaux piliers de cette science fondamentale qu’est la physique qui ont été mis en lumière au courant du vingtième siècle, je veux parler de la théorie de la relativité et de la théorie quantique qui n’ont pas pu être unifiées en une théorie cohérente unique. Ce qui fait que ces théories, qui, pour faire simple, traitent respectivement de l’infiniment grand et de l’infiniment petit, sont actuellement incompatibles entre elles !

D’une manière plus générale, on sait depuis longtemps que chaque domaine scientifique est séparé de chaque autre par ce que l’on a coutume d’appeler un fossé épistémologique ou même une faille épistémologique. Ces fossés viennent signaler les points de la théorie où une vérité d’un domaine vient heurter une vérité d’un autre. Des mathématiques pures aux sciences de l’humain, le territoire de l’ensemble de la science est ainsi parsemé de failles et de fossés qui semblent le plus souvent infranchissables.

Cette illusion trompeuse de l’unité de la science sous la bannière d’une seule vérité que l’avenir unifierait a aussi l’inconvénient majeur de rejeter la plus grande part du reste du savoir humain dans le domaine de l’aléatoire et, pour tout dire, du faux.

Pourtant, loin de moi l’idée de rejeter les savoirs scientifiques comme de nouvelles croyances. Les progrès de la connaissance scientifique sont au contraire tout à fait prodigieux et le langage humain qui en a permis l’émergence ne cessera pas de nous étonner par les efficiences toujours plus grandes qu’il permet. C’est juste qu’il faut admettre une fois pour toutes que nos vérités sont relatives et le seront toujours. Ce positionnement philosophique indispensable induit une modestie et un respect au regard de la nature et du vivant qui permettra d’aborder avec plus de sérénité les grands défis qui nous attendent compte tenu des conséquences néfastes de nos illusions et de notre long aveuglement égocentré.

Quelles qu’extraordinaires que soient leurs multiples découvertes, si l’on admet la relativité infinie de nos vérités scientifiques, il devient illusoire d’espérer trouver en celles-ci ce qui peut donner sens à nos vies et guider nos orientations conscientes, tant individuelles que collectives. Quelque instance supérieure qu’il conviendrait de qualifier de méta-philosophique sera alors indispensable pour servir de boussole aux organisations humaines de toutes dimensions et spécialement aux organisations chargées d’ordonner le collectif. Evidemment cette instance ainsi que ses sous-ensembles n’auront pas plus que les domaines scientifiques le privilège d’une vérité transcendantale, bien au contraire leurs orientations résulteront de choix éthiques relatifs à l’état actuel de nos connaissances indéfiniment limitées.

Même s’il est manifestement plus sage que la course en avant vers un progrès illusoire dont les conséquences sont de plus en plus gravement néfastes, un tel changement ne sera pas facile à admettre. Ce sera un pas de plus vers la relativisation d’une humanité déjà bien mise à mal dans ses prétentions à être le centre du monde.

Pas facile à admettre et encore moins à mettre en œuvre, en effet, même si cette instance gagnera à tenir compte de l’état actuel toujours plus complexe des connaissances acquises, ce qui est déjà un défi en soi, ses orientations déterminant le sens vers lequel nous orienterons nos énergies comporteront forcément une dimension de choix arbitré ne pouvant exclure l’erreur. La destinée humaine deviendrait alors inféodée à ce type de choix. Il convient cependant de noter qu’il s’agirait là d’une avancée de première importance par rapport à la situation actuelle où, malgré quelques tentatives partielles et partiales, jamais des orientations assumées pour toute l’humanité par des instances représentatives n’ont encore vu le jour.

Que l’aventure humaine soit orientée par des choix collectifs en conscience demeure néanmoins de l’ordre de l’utopie actuellement car le mode d’organisation de la représentativité d’une telle mise en œuvre est une pierre d’achoppement dont la résolution n’est même pas ébauchée sérieusement à ce jour. Il y a cependant urgence, non seulement pour l’humanité mais encore pour tout le vivant connu, à progresser rapidement dans cette direction.

Un socle commun doit faire consensus. Je propose que ce soit la préservation  et la mise en valeur la plus complète possible du vivant. « Dieu, c’est-à-dire la nature » nous disait déjà Spinoza dans sa grande sagesse. De fait, la seule émanation de ce qui nous a engendré et sur laquelle nous puissions agir est la nature. Non seulement nous devons en tenir compte de toute urgence mais encore il nous incombe d’en assumer la responsabilité. Nos découvertes scientifiques ne sont la plupart du temps que des déchiffrements limités ou des copies partielles d’éléments de la nature mais elles permettent depuis le début de la spécificité humaine des applications technologiques qui interfèrent frustrément avec la nature. Depuis le début, l’influence de ces applications technologiques va grandissante au point de bouleverser des pans entiers de ce qui est le fondement de nos origines, la matrice qui dépasse tous nos entendements, le vivant.

Du fait de l’absence d’une instance régulatrice commune, l’exploitation mercantile effrénée de nos ressources naturelles par la technologie vient mettre en grand danger la cohérence du vivant dont l’humain fait partie. Nous ne reviendrons bien sûr pas à une hypothétique nature primitive, nous devrons toujours faire avec ce que nous avons déjà fait de la nature. Mais nous avons la responsabilité collective de ce devenir et il nous faut commencer par éviter la catastrophe que nous avons générée. Si nous passons ce cap, notre destinée collective nous appartiendra plus que jamais, sauf accident cosmique évidemment. On pourrait alors parler à juste titre de l’aventure humaine. Pour l’instant, malgré un très grand nombre de destinées individuelles extraordinaires, l’humanité en tant qu’entité autonome n’existe à vrai dire pas.

Mais le plus probable est qu’il nous faudra encore longtemps et peut-être même toujours faire avec les divisions que nos limitations mentales et nos aléas pulsionnels nous imposent, nous poussant à nous entre-déchirer pour des causes stupides. Peut-être que tout comme l’individu semble actuellement condamné à la division entre ses pulsions et sa raison, en sera-t-il de même pour l’humanité dans son entier. C’est alors de tendre toujours plus vers cette communauté d’orientation qui nous permettra seulement d’éviter d’engendrer le pire, c’est-à-dire notre anéantissement collectif et éventuellement celui du vivant connu.

InsidiousThisDore-size_restricted

Philippe Decan                                                     Nantes                                             Février 2020

Images animées: extraites de « Les Deschiens »

The singularity of Ray Kurzweil.

 

 

rachel-green-no

 

Ray Kurzweil (1948-), inventor, entrepreneur, futurologist and writer, is an emblematic figure of transhumanism. (1) R. Kurzweil’s parents are among the many educated Europeans who emigrated to the United States because of the Second World War. His father was a music director.

His wife is a clinical psychologist and teaches at Harvard Medical School.

Kurzweil claims that it was at the age of five that he decided to become an inventor. He describes having built up a collection of construction toy components and electronic gadgets from the neighbourhood at a very young age: « I had the idea that if I could put these elements in the right way, I could solve any problem », and was very early fascinated by science fiction. He also says he discovered the computer at the age of twelve, and recalls that at that time there were, according to him, only a dozen computers in all of New York, where he lived. One of his uncles, an engineer, introduced him to programming and the basics of computer science (2). At the age of fifteen, he wrote his first computer program. Two years later, he was invited to a television show and presented a piano piece composed on software he had developed and a computer he had built. At the age of eighteen, he won a first prize at a competition, which allowed him to be congratulated by President Lyndon Johnson at the White House. During his career, he was also received by Presidents Reagan, Clinton and Obama, respectively, for various tributes.

While still in high school, he visited Mr. Minsky and studied with him at the Massachusetts Institute of Technology (MIT). In 1968, he created a company in which he invented software to direct graduate students to the school that would best suit them. A little later, he sold this company for the plump sum for the time of a hundred thousand dollars. In 1974 he founded « Kurzweil computer products inc. » and developed software capable of recognizing written texts in any format. He took a new step by creating a machine for the blind people, that could read written texts aloud (3).

téléchargement

Ray Kurzweil and his « Reading machine »

This machine was also sold and marketed in 1978 to authenticate signatures on computerized documents. After selling his company again, he became a consultant and followed up his machines with the various buyers until 1995.

Afterwards, he became interested in electronic music and, after meeting Stevie Wonder in 1982, he began to create synthesizers that could reproduce the sounds of the original instruments as closely as possible. He took the opportunity to create a new company, « Kurzweil music system », thanks to the invention, in 1984, of the « K 250 », a high-performance synthesizer with which a single user could compose and play an entire orchestral piece.  Once again, in 1990, he sold to a Korean company.

57b45dd75d204

Ray Kurzweil and Stevie Wonder

In parallel with his synthesizer business, he also created an artificial intelligence application company « KAI » (Kurzweil Applied Intelligence) to develop one of the first speech recognition systems, still approximate, but already marketable, from 1987. During the 1990s, he founded the Medical Learning Company, a company for medical studies, including software for medical students or doctors, interactive with computer-simulated patients. In 1996, he also set up the « Kurzweil educational systems » to use digital technology to help patients with visual problems, dyslexia and attention deficit hyperactivity disorder (ADHD) at school. He created, among other things, the site « KurzweilCyberArt.com », for visual arts creation, but also to compose poems automatically, which leaves a little perplexing… In 1999, he set up an investment fund called « FatKat ». In 1999, in his book « The Age of the Mind Machines », he predicted that computers would one day be better than the most prominent financial specialists to make the best decisions about profitable investments. Also in 1999, he was awarded the National Medal for Innovation and Technology, a high scientific award in the United States.

At the end of 2012, R. Kurzweil was hired by Google to work on new projects including learning machines, with the ambition of making « natural » languages understandable by the Google search engine.

This brief overview of the career of entrepreneur and inventor, approved by the person concerned, is enough to win the admiration of many. But the character is more complex than that and leaves, in some respects, doubtful… Let us first consider that in a site that seems to have been created by him (4), on the biography page, the first sentences are as follows: « Ray Kurzweil was described as « the last genius » by the Wall Street newspaper and as « the ultimate thinking machine » by Forbes magazine, ranked eighth among the entrepreneurs of the United States, and who proclaimed him worthy heir to Thomas Edison. (The media) PBS named him one of the sixteen revolutionaries who made America (…) He is considered one of the best inventors, thinkers and futurists in the world, with a record of predictions made over the past thirty years. « The rest of this presentation reflects this short passage. Alongside the undeniable qualities of the researcher, we therefore see the appearance of an undeniable oversized ego. For R. Kurzweil, everything is possible and there seems to be no limit to the potential of his mind. It is probably this refusal of limits coupled with the conviction of being an exceptional man that led him to enroll in the « Alcor Foundation for the Extension of Life », a company currently (2017) run by Max More (1964-), a figure of transhumanism, who proposes either the cryonization (very low temperature conservation) of the entire body for two hundred thousand dollars (plus ten thousand if one is not a North American), or, for a lower cost, only the brain. In other words, when he is declared dead, Kurzweil’s idea is to be infused with « cryoprotectors », vitrified in liquid nitrogen and stored until technological advances can bring him back to life. To complete the picture, it is also worth mentioning a very particular relationship between R. Kurzweil and his health: From the age of 35, when he was discovered to be impaired by glucose intolerance and the first signs of type 2 diabetes, like his father, he met a doctor whose unconventional prescriptions he shared and implemented: daily consumption of hundreds of supplements in the form of pills, chemical treatment by IV, consumption of red wine and others.

Thus R. Kurzweil ingested « two hundred and fifty supplements, eight to ten glasses of alkaline water and ten cups of green tea » per day and consumed a certain number of glasses of wine per week in order to « reprogram his biochemistry » (5). Later it decreased to 150 dietary supplements in the form of pills (6). He has written several books on health, the main idea of the first is that our diet should not contain more than 10% fat. The title of the second is: « Fantastic Journey: Living long enough to live forever. »

ray-kurzweil-628

Ray Kurzweil does sport in his own way

These elements become clearer when we know that R. Kurzweil, was deeply affected by the sudden death of his father from a heart attack at the age of 58. Upset, R. Kurzweil has since made a fixation on death, which will become enemy number one. Between denial and denial of his father’s death, he still keeps hundreds of boxes filled with various documents on his father, in the hope of one day bringing him back to life thanks to artificial intelligence. « I have all his letters, and even his electricity bills, » he told the Financial Times. There are 8 mm films, photographs, many vinyl records of his music. The idea is to create an avatar from all this information, to recreate my father’s personality. Let those who remember him not be able to distinguish him from the real Fredric Kurzweil. » (7)

Extending the prospective considerations of some authors of the sixties and following on the unexploited potential of the human brain, as attested for example by the books « Neurological » (1976) and « Your brain is god » (1988) of Timothy Leary (1920-1996), professor of psychology and important contester of the society of that time, R. Kurzweil is also very interested in the possible developments of our brains, but as much T. Leary was counting on the use of drugs, especially LSD, to create a new society, as much as R. Kurzweil, a few decades later, is relying mainly on technology to achieve this. He considers that the latter will soon make it possible to create synthetic neocortexes based on the same principles as human brains and that these synthetic neocortexes can serve as an extension of the human brain. He estimates that the human brain has about three hundred million pattern recognizers and suggests that, thanks to these artificial technological extensions, we should go from three hundred million to one billion….

Kurzweil, like other transhumanists, stressed the very serious potential dangers of the future uses of genetics, nanotechnology and robotics. For example, he fears a loss of control in the multiplication of some nanoparticles or the use of nanotechnologies for terrorist purposes. However, he adopts a resolutely offensive attitude, considering that in any case the current movement cannot be stopped because, if we wanted to do so, we would have to install a totalitarianism that would relegate these dangerous uses of technologies to an underground circulation, beyond the knowledge of the responsible scientists. In order not to deprive ourselves of the many advantages and profits associated with new technologies, he therefore suggests that we move ever further forward so that these responsible scientists develop ever more defensive technologies in the face of destructive technologies. This point of view seems to me to be highly questionable.

In his 1999 book « The Age of the Machines of the Mind », R. Kurzweil proposes the « law of accelerated return », thus expressing that we would be in a moment of exponential acceleration of the evolution of different knowledge and operating systems. To name this turning point in human evolution that we are about to enter, it uses the expression « technological singularity », borrowed from the mathematician and science fiction writer Vernor Vinge (1944-). This theory is based on a hypothetical generalization of Moore’s law, which assumes a doubling of computer computing power every eighteen months, an empirical law that seems to have been verified to date.

In 2006, in « The Singularity is near » « R. Kurzweil develops his vision of the future: the exponential progress of artificial intelligence, the arrival of technological singularity, the transfer of our mind to machines and, finally, eternal life. The first step on this long road: the use of nanorobots, DNA strands that will circulate in the body to heal us: « Over the next 25 years, we will overcome almost all diseases and aging, » says Kurzweil, convinced that we are on the verge of understanding the « software of life ».

giphy (2)

In 2009, in collaboration with Google and in a research centre in NASA, R. Kurzweil announced the creation of « The University of Singularity ». In describing its objectives, it states that its mission is « to bring together, educate and inspire a set of leaders who will strive to understand and facilitate the development of the exponential advancement of expanding technologies and to apply, focus and guide the use of these tools to deepen humanity’s great challenges. « At each session of this university, about forty selected students participate by paying substantial fees for a nine-week work program.

If we summarize a little bit the quickly gathered elements of the known life of this man characteristic of a certain North American state of mind, we have a brilliant scientific mind that allows him a productive investment of calculable rationality, but this brilliant mind, nourished as it is laudable by imaginary utopias, plunges into a theoretical claim that is both debatable and dangerous. Eventually promoting an unbridled advance in the sciences of calculation, which is certainly not impossible, he adopts an attitude of rushing forward in this matter, an attitude that reinforces an illusion of all power and flatters an oversized ego. Its theoretical hypotheses, in particular on technological singularity, even if they start from a real observation of ongoing societal change, have only the veneer of scientificity, are eminently subjective and lead to ultimately elitist behaviour. These hypotheses ignore human subjectivity and therefore the irrational aspects of its functioning, in particular the existence of the Unconscious does not seem to touch it.

Finally, his conceptions concerning death, shared by a number of transhumanists, are strictly speaking delusional and devoid of any scientificity. While we can understand the trauma caused by the death of his father, this does not allow for a pseudo-technological delirium leading to an illusory belief in individual immortality for a few supposed elites. Under the guise of the best intentions in the world, we are witnessing individualistic selfishness pushed to its extremes. This speech seems extremely dangerous to me. First of all, because it is false: the reality is that we are not nearly through with dying. For the mind transformed into software, some « great » men have not waited for this to leave a significant and admirable trace in humanity by transmitting their precious thoughts to us, but they are obviously well and truly definitely dead, and it will continue to be so despite the cryogenic and very lucrative delusions of some of them. But in my opinion, it is above all dangerous because, at the level of living beings as a whole, we have a real and fundamental contemporary problem with death and this problem has to a very large extent been generated by a misuse of scientific knowledge, inter alia through technology and chemistry, because of which we have already killed a large part of the living organism that is the Earth, killed a very large part of the bird species and eighty percent of the known insect species (in Europe), slaughtered a very large number of wild animal species, started to slaughter a large part of the fish and poisoned the very large majority of the others with petroleum-based plastic products. Not to mention the way in which food animals are chosified and then slaughtered. Alongside the prodigious evolution of knowledge and the technology associated with it, it is surprising to see how much the apologists of technology, in sad echoes of their illusions of immortality, are in denial of the way in which its misuse currently asymptotically spreads death in a very worrying way.

Philippe Decan                                            Nantes                                                       March 2019

Translated with deepl and with my apologies for eventual mistakes.

Notes :

(1) https://en.wikipedia.org/wiki/Ray_Kurzweil , most of the following elements of this man’s life are directly inspired by this English version dedicated to him

(2) Interview by Ingrid Winckelgren in « Scientific American » in December 2012, on the website: https://blogs.scientificamerican.com/streams-of-consciousness/on-tv-ray-kurzweil-tells-me-how-to-build-a-brain

(3) In 2005, he marketed a machine consisting of a digital camera and a handheld computer, a machine much smaller than the one designed some thirty years earlier, but still designed to help the blind to hear written texts.

(4) http://www.kurzweilai.net/ray-kurzweil-biography

(5) The page of the quotation is unfortunately now not available on the Internet….

(6) In an interview with CNN in 2008, transcribed on: http://transcripts.cnn.com/TRANSCRIPTS/0805/30/gb.01.html

(7) https://usbeketrica.com/article/ray-kurzweil-l-homme-qui-voulait-faire-revivre-son-papa  Article published in issue 19 of Usbek & Rica. Author: Fabien Benoit.

(8)

https://www.youtube.com/watch?time_continue=6&v=8XWXJDgbeP0

https://www.youtube.com/watch?time_continue=4&v=ZreGeZ8w4qE

 

 

 

 

 

La singularité de Ray Kurzweil.

 

rachel-green-no.gif

 

Ray Kurzweil (1948- ), inventeur, entrepreneur, futurologue et écrivain, est une figure emblématique du transhumanisme. (1) Les parents de R. Kurzweil font partie de ces nombreux européens cultivés qui ont émigré vers les Etats-Unis à cause de la seconde guerre mondiale. Son père était chef d’orchestre.

Sa femme est psychologue clinicienne et enseigne à l’école de médecine de Harvard.

Kurzweil prétend que c’est à l’âge de cinq ans qu’il décida de devenir inventeur. Il décrit avoir très jeune constitué une collection de pièces de jeux de construction et de gadgets électroniques récupérés dans le voisinage : « J’avais l’idée que si je pouvais arriver à mettre ces éléments de la bonne manière, je pourrais résoudre n’importe quel problème», et avoir très tôt été passionné par la science-fiction. Il dit aussi avoir découvert l’ordinateur à douze ans, et rappelle qu’à cette époque il n’y avait, selon lui, qu’une douzaine d’ordinateurs dans tout New York, où il habitait. Un de ses oncles, ingénieur, l’initia à la programmation et aux bases de l’informatique (2). A l’âge de quinze ans, il écrivit son premier programme informatique. Deux ans plus tard, il fut invité à une émission de télévision et présenta un morceau de piano composé sur un logiciel qu’il avait élaboré et sur un ordinateur qu’il avait construit. A dix-huit ans, il remporta un premier prix à une sorte de concours Lépine, ce qui lui permit d’être félicité par le président Lyndon Johnson à la Maison blanche. Durant sa carrière, il sera aussi reçu respectivement par les présidents Reagan, Clinton et Obama, pour divers hommages.

Alors qu’il était encore au lycée, il rendit visite à M. Minsky puis étudia avec lui au MIT (Massachusset institute of technology.) En 1968, il créa une compagnie au sein de laquelle il inventa un logiciel pour orienter des postulants étudiants aux études supérieures vers l’école qui leur correspondrait le mieux. Un peu plus tard, il revendit cette société pour la somme rondelette pour l’époque de cent mille dollars. En 1974 il fonda la « Kurzweil computer products inc. » et élabora un logiciel capable de reconnaître des textes écrits dans n’importe quel format. Il franchit une nouvelle étape en réalisant une machine pour aveugles susceptible de lire à haute voix des textes écrits (3).

téléchargement

Ray Kurzweil et sa « Reading machine »

Cette machine fut aussi vendue et commercialisée en 1978 pour authentifier des signatures sur des documents informatisés. Après avoir une nouvelle fois vendu sa société, il devint consultant et assura le suivi de ses machines auprès des différents acquéreurs jusqu’en 1995.

Par la suite, il s’intéressa à la musique électronique et, après une rencontre avec Stevie Wonder en 1982, il se lança dans la création de synthétiseurs capables de reproduire au plus près les sons des instruments d’origine. Il en profita pour créer une nouvelle entreprise, « Kurzweil music system », grâce à l’invention, en 1984, du « K 250 », synthétiseur très performant grâce auquel un seul utilisateur pouvait composer et jouer tout un morceau orchestral.  Une fois de plus, il revendit, en 1990, à une société coréenne.

57b45dd75d204

Ray Kurzweil et Stevie Wonder

Parallèlement à son entreprise de synthétiseurs, il créa aussi une compagnie d’application d’intelligence artificielle « KAI » (Kurzweil Applied Intelligence) afin de développer un des premiers systèmes de reconnaissance vocale, encore approximatif, mais déjà commercialisable à partir de 1987. Durant les années 1990, il fonda la « Medical learning company », compagnie pour les études médicales, incluant des logiciels pour des étudiants en médecine ou des médecins, interactifs avec des patients simulés par ordinateur. En 1996, il mit aussi en place la « Kurzweil educational systems » afin d’utiliser la technologie numérique pour aider les patients souffrant de problèmes visuels, mais aussi de dyslexie et de troubles de déficit de l’attention avec hyperactivité (TDAH) à l’école. Il inventa, entre autres, le site « KurzweilCyberArt.com », pour la création en arts visuels, mais aussi pour composer des poésies automatiquement, ce qui laisse un peu perplexe…  En 1999, il mit en œuvre un fond d’investissement appelé « FatKat », acronyme dont la traduction donne à peu près : « Accélérateurs de transactions financières grâce aux technologies adaptatives Kurzweil. » En 1999, dans son livre « L’âge des machines de l’esprit », il avait prédit que les ordinateurs seraient un jour meilleurs que les plus éminents des spécialistes financiers pour prendre les décisions les plus judicieuses concernant les investissements rentables. Toujours en 1999, il est récompensé par la médaille nationale de l’innovation et de la technologie, haute récompense scientifique aux États-Unis.

Fin 2012, R. Kurzweil fut embauché par la société Google pour travailler sur de nouveaux projets comprenant les machines apprenantes, avec entre autres l’ambition de rendre les langages « naturels » compréhensibles par le moteur de recherche Google.

Ce rapide survol de la carrière d’entrepreneur et d’inventeur, homologué par le concerné, suffit à forcer l’admiration d’un grand nombre. Mais le personnage est plus complexe que cela et laisse, à certains égards, dubitatif… Considérons d’abord que dans un site qui semble avoir été créé par ses soins (4), à la page biographie, les premières phrases sont les suivantes : « Ray Kurzweil a été décrit comme « le dernier génie » par le Wall street journal et comme « l’ultime machine à penser » par le magazine Forbes, classé huitième parmi les entrepreneurs des Etats-Unis, et qui le proclama digne héritier de Thomas Edison. (Le média) PBS l’a quant à lui désigné comme l’un des seize révolutionnaires qui ont fait l’Amérique (…) Il est considéré comme l’un des meilleurs inventeurs, penseurs et futurologues mondiaux, avec un record de prédictions réalisées depuis trente ans. » La suite de cette présentation est à l’image de ce court passage. A côté des indéniables qualités du chercheur, on voit donc apparaître un tout aussi indéniable ego surdimensionné. Pour R. Kurzweil, tout est possible et il semble n’y ait pas de limite aux potentiels de son esprit. C’est probablement ce refus des limites couplé à la conviction d’être un homme exceptionnel qui l’a poussé à s’inscrire à la « Fondation Alcor pour l’extension de la vie », compagnie dirigée ( rédigé en 2017) par Max More (1964- ), figure du transhumanisme, qui propose soit la cryonisation (conservation à très basse température) du corps entier pour deux cent mille dollars (plus dix mille si l’on n’est pas nord-américain), soit, pour un moindre coût bien sûr, seulement celle du cerveau. En clair, quand il sera déclaré mort, l’idée de R. Kurzweil est d’être perfusé à l’aide de « cryo-protecteurs », vitrifié dans du nitrogène liquide et conservé jusqu’à ce que les progrès de la technologie puissent le faire ressusciter. Pour compléter le tableau, il faut signaler aussi un rapport très particulier de R. Kurzweil à sa santé : A partir de l’âge de 35 ans, âge où on lui découvrit une intolérance au glucose et les premiers signes d’un diabète de type 2, comme son père, il rencontra un médecin dont il partagea et mit en œuvre les prescriptions peu conventionnelles : consommation quotidienne de centaines de suppléments sous forme de pilules, traitement chimique par intraveineuse, consommation de vin rouge et autres.

Ainsi R. Kurzweil ingéra dès lors « deux cent cinquante suppléments, huit à dix verres d’eau alcaline et dix tasses de thé vert » par jour et consomma un certain nombre de verres de vin par semaine afin de « reprogrammer sa biochimie » (5). Plus tard il a diminué à 150 suppléments alimentaires sous forme de pilules (6). Il a écrit plusieurs livres concernant la santé, l’idée phare du premier est que notre alimentation ne devrait pas contenir plus de 10% de matière grasse. Le titre du second est : « Voyage fantastique : vivre assez longtemps pour vivre toujours. »

ray-kurzweil-628.jpg

Ray Kurzweil fait du sport à sa manière

Ces éléments s’éclairent lorsque l’on sait que R. Kurzweil, a été profondément marqué par le décès brutal de son père d’un infarctus à l’âge 58 ans. Bouleversé, R. Kurzweil fait depuis une fixation sur la mort, qui va devenir l’ennemi numéro 1. Entre déni et dénégation de la mort de son père, il conserve encore chez lui des centaines de boîtes remplies de documents divers sur celui-ci, dans l’espoir de lui redonner vie un jour grâce à l’intelligence artificielle. « J’ai toutes ses lettres, et même ses factures d’électricité, confie-t-il au Financial Times. Il y a des films en 8 mm, des photographies, beaucoup de disques vinyles de sa musique. L’idée, c’est de créer un avatar à partir de toutes ces informations, de recréer la personnalité de mon père. Que ceux qui se souviennent de lui ne puissent pas le distinguer du vrai Fredric Kurzweil. » (7)

Prolongeant les considérations prospectives de certains auteurs des années soixante et suivantes sur les potentiels inexploités du cerveau humain,  comme en attestent par exemple les livres « Neurologique » (1976) et « Votre cerveau est dieu » (1988) de Timothy Leary (1920-1996), professeur de psychologie et contestataire important de la société de cette époque, R. Kurzweil s’intéresse aussi beaucoup aux développements possibles de nos cerveaux. Mais autant Th. Leary comptait sur l’usage des drogues, en particulier du LSD, pour créer une société nouvelle, autant R. Kurzweil, quelques décennies plus tard, compte surtout sur la technologie pour y parvenir. Il considère en effet que cette dernière permettra bientôt de créer des néocortex synthétiques basés sur les mêmes principes que les cerveaux humains et que ces néocortex synthétiques pourront servir de prolongement du cerveau humain. Il évalue que le cerveau humain a environ trois cent millions de possibilités de repérage, « pattern recognizers », et suggère que l’on passe, grâce à ces extensions technologiques artificielles, de trois cent millions à un billion…

Par ailleurs, R. Kurzweil a, comme d’autres transhumanistes, insisté sur les dangers potentiels très graves des usages à venir de la génétique, des nanotechnologies et de la robotique. Il craint par exemple une perte de contrôle dans la multiplication de certaines nanoparticules ou l’usage des nanotechnologies pour des visées terroristes. Il adopte cependant une attitude résolument offensive, estimant que de toutes façons on ne saurait arrêter le mouvement en cours car, si on voulait le faire, il faudrait installer un totalitarisme qui reléguerait ces usages dangereux des technologies à une circulation souterraine, hors de la connaissance des scientifiques responsables. Afin de ne pas se priver des nombreux avantages et profits liés aux nouvelles technologies, il suggère donc d’aller toujours plus de l’avant de manière à ce que ces scientifiques responsables développent toujours plus de technologies défensives face aux technologies destructives. Ce point de vue me semble éminemment discutable.

Dans son livre de 1999 « L’âge des machines de l’esprit », R. Kurzweil propose la « loi du retour accéléré », exprimant ainsi que nous serions dans un moment d’accélération exponentielle de l’évolution de différents savoirs et systèmes de fonctionnement. Pour nommer ce moment de bascule de l’évolution humaine dans lequel nous serions sur le point d’entrer, il reprend l’expression de « singularité technologique », empruntée au mathématicien et écrivain de science-fiction Vernor Vinge (1944- ). Cette théorie est basée sur une généralisation hypothétique de la loi de Moore qui postule un doublement de la puissance de calcul des ordinateurs tous les dix-huit mois, loi empirique, qui semble vérifiée jusqu’à ce jour mais qui aura inexorablement sa limite à mon avis.

En 2006, dans « The Singularity is near » « R. Kurzweil développe sa vision du futur : les progrès exponentiels de l’intelligence artificielle, l’arrivée de la singularité technologique, le transfert de notre esprit dans des machines et, enfin, la vie éternelle. Première étape de cette longue route : le recours aux nanorobots, des brins d’ADN qui circuleront dans le corps pour nous soigner : « Au cours des vingt-cinq ans qui viennent, nous allons vaincre presque toutes les pathologies et le vieillissement », assure Kurzweil, convaincu que nous sommes sur le point de comprendre le « logiciel de la vie ». « Aujourd’hui, pour un humain, lorsque le matériel fait défaut, le logiciel – son esprit – disparaît avec lui. Mais bientôt nous deviendrons du logiciel et le matériel sera remplaçable », prédit Kurzweil » (7).

Il est persuadé qu’en 2029, tout va basculer. « J’ai cette date en tête. Je pense que nous allons arriver à doter les machines d’une intelligence logique mais aussi émotionnelle, qui leur permettra d’être drôles, sexy, et de comprendre les émotions humaines. »

giphy (2).gif

En 2009, en collaboration avec l’entreprise Google et dans un centre de recherche de la NASA, R. Kurzweil annonce la création de « L’université de la singularité ». Dans la description de ses objectifs, on peut lire que sa mission est « de rassembler, d’instruire et d’inspirer un ensemble de dirigeants qui lutteront pour comprendre et faciliter le développement de l’avancement exponentiel des technologies en expansion et d’appliquer, de se concentrer et de guider l’usage de ces outils pour approfondir les grands défis de l’humanité. » A chaque session de cette université, une quarantaine d’étudiants sélectionnés participent en payant des droits conséquents à un programme de travail de neuf semaines.

Si l’on résume un peu les éléments rapidement rassemblés de la vie connue de cet homme caractéristique d’un certain état d’esprit nord-américain, on a un brillant esprit scientifique qui lui permet un investissement productif de la rationalité calculable, mais ce brillant esprit, se nourrissant comme il est louable d’utopies imaginaires, plonge dans une prétention théorique à la fois discutable et dangereuse. Finissant par promouvoir une avancée effrénée des sciences du calcul, ce qui n’est certes pas impossible, il adopte une attitude de fuite en avant en la matière, attitude qui vient conforter une illusion de toute puissance et flatter un ego surdimensionné. Ses hypothèses théoriques, en particulier sur la singularité technologique, même si elles partent d’un constat réel de mutation sociétale en cours, n’ont que le vernis de la scientificité, sont éminemment subjectives et débouchent sur un comportement en définitive élitiste. Ces hypothèses font fi de la subjectivité humaine et donc des aspects irrationnels de son fonctionnement, en particulier l’existence de l’Inconscient ne semble pas l’effleurer.

Enfin, ses conceptions concernant la mort, partagées par un certain nombre de transhumanistes, sont à proprement parler délirantes et dénuées de toute scientificité. On peut certes comprendre le traumatisme provoqué par la mort de son père, mais cela n’autorise pas à un délire pseudo-technologique débouchant sur une croyance illusoire en l’immortalité individuelle pour quelques élites supposées. Sous l’apparence des meilleures intentions du monde, on assiste à l’égoïsme individualiste poussé dans ses extrêmes. Ce discours me semble extrêmement dangereux. D’abord parce qu’il est faux : la réalité c’est que l’on n’est pas près d’avoir fini de mourir. Quant à l’esprit transformé en logiciel, certains « grands » hommes n’ont pas attendu cela pour laisser une trace marquante et admirable dans l’humanité en nous transmettant leurs pensées précieuses, mais ils sont évidemment néanmoins bel et bien définitivement morts, et il continuera d’en être ainsi malgré les délires cryogéniques mais très lucratifs de certains. Mais c’est à mon avis surtout dangereux car, au niveau du vivant pris dans sa globalité, nous avons un problème contemporain réel et fondamental avec la mort et ce problème a en très grande part été généré par un mésusage des connaissances scientifiques, entre autres par le biais de la technologie et de la chimie, à cause desquelles nous avons déjà tué une grande partie de l’organisme vivant qu’est la terre, tué une très grande partie des espèces d’oiseaux et quatre-vingt pour cent des espèces d’insectes connus (en Europe), massacré un très grand nombre d’espèces d’animaux sauvages, commencé à massacrer une grande partie des poissons et empoisonner la très grande majorité des autres avec les produits plastiques dérivés du pétrole. Sans parler de la manière dont sont chosifiés puis massacrés les animaux de consommation. Parallèlement à l’évolution prodigieuse des connaissances et de la technologie qui y est affiliée, il est étonnant de voir à quel point les apologues de la technologie, en triste écho à leurs illusions d’immortalité, sont dans le déni de la manière dont le mésusage de celle-ci répand actuellement asymptotiquement la mort d’une manière très inquiétante.

Philippe Decan                                         Nantes                                                             Avril 2019

 

Notes :

 

Survol des transhumanismes

10-Artificial-Intelligence

La prise de conscience par certains chercheurs des mathématiques, des sciences de la nature et des sciences humaines, d’une accélération étonnamment rapide des progrès techniques concernant les domaines du numérique et de l’intelligence artificielle, de la biotechnologie et des nanotechnologies, a amené certains de ces chercheurs à des spéculations théoriques sur les conséquences de cet emballement. L’espoir le plus fréquemment énoncé est d’améliorer la condition humaine par le dépassement de certains éléments jusque-là inhérents à celle-ci et tout spécialement, les handicaps, les douleurs, les maladies, le vieillissement et même la mort. Ce dernier point est bien entendu le plus polémique, d’autant que les spéculations en question prennent fréquemment la forme d’une véritable foi rédemptrice à l’égard des « progrès » entrainés par l’évolution technologique. Nombre de religions reposent depuis longtemps sur une telle promesse d’immortalité. Cette croyance communicative, étayée cette fois sur la technologie, a aussi atteint nombre d’acteurs du champ créatif et culturel. Le terme transhumanisme a regroupé un nombre important de personnes à partir des années 1980 et ce mouvement a encore un poids conséquent actuellement. Evidemment ces transformations promises de l’humain grâce à la technologie produiraient rapidement un humain différent doté de capacités physiques et mentales nouvelles qui mériteraient de lui trouver un nouveau nom. Le terme le plus répandu est « post-humain ». De telles prises de position ne laissent pas indifférent, suscitant des réactions allant de l’enthousiasme au rejet le plus total. Mais le fait est que l’évolution impressionnante de la technologie contemporaine soulève énormément de questions quant au devenir de l’humain. C’est le mérite de ce mouvement d’en prendre acte et d’essayer d’y répondre. C’est pourquoi nous allons y porter un peu d’attention.

On est fréquemment choqué par le fait que les transhumanistes s’appuient sur les connaissances scientifiques pour « défier la mort ». On trouve pourtant d’assez nombreux exemples de ce rêve au fil de l’histoire humaine. Je n’en prendrai qu’un seul et non des moindres : Nicolas de Condorcet (1743-1794), humaniste remarquable, philosophe, homme politique et mathématicien précurseur entre autres des statistiques et des probabilités. Sa dernière œuvre, publiée un an après sa mort prématurée, est intitulée « Esquisse d’un tableau historique des progrès de l’esprit humain » et, dans le dernier chapitre, « Des progrès futurs de l’esprit humain », on peut lire le passage suivant : « (…) personne ne doutera sans doute, que les progrès dans la médecine conservatrice, l’usage d’aliments et de logements plus sains, une manière de vivre qui développerait les forces par l’exercice, sans les détruire par des excès ; qu’enfin, la destruction des deux causes les plus actives de dégradation, la misère et la trop grande richesse, ne doivent prolonger, pour les hommes, la durée de la vie commune, leur assurer une santé plus constante, une constitution plus robuste. On sent que les progrès de la médecine préservatrice, devenus plus efficaces par ceux de la raison et de l’ordre social, doivent faire disparaître à la longue les maladies transmissibles ou contagieuses, et ces maladies générales qui doivent leur origine aux climats, aux aliments, à la nature des travaux. Il ne serait pas difficile de prouver que cette espérance doit s’étendre à presque toutes les autres maladies, dont il est vraisemblable que l’on saura un jour reconnaître les causes éloignées. Serait-il absurde, maintenant, de supposer que ce perfectionnement de l’espèce humaine doit être regardé comme susceptible d’un progrès indéfini, qu’il doit arriver un temps où la mort ne serait plus que l’effet, ou d’accidents extraordinaires, ou de la destruction de plus en plus lente des forces vitales, et qu’enfin la durée de l’intervalle moyen entre la naissance et cette destruction n’a elle-même aucun terme assignable ? Sans doute l’homme ne deviendra pas immortel, mais la distance entre le moment où il commence à vivre et l’époque commune où naturellement, sans maladie, sans accident, il éprouve la difficulté d’être, ne peut-elle s’accroître sans cesse ? » (1) Dans cet extrait, N. de Condorcet ne va cependant pas jusqu’à annoncer l’immortalité pour les humains…

marquis-de-condorcet-3-300x250

Nicolas de Condorcet

Plus près de nous, le penseur et écrivain britannique Aldous Huxley (1884-1963), a écrit le roman « Le meilleur de mondes » (1932) mais aussi « Les portes de la perception » (1954) qui abordait la question de l’intérêt de la consommation des psychotropes et en particulier du LSD. En 1960, il donna une conférence universitaire intitulée « Potentialités humaines » dans laquelle il a dit : « nous sommes quasiment les mêmes que nous étions il y a vingt mille ans (…) les neurologues nous ont montré qu’aucun être humain n’a jamais utilisé plus de dix pour cent de tous les neurones de son cerveau. Peut-être que si nous nous y prenons bien nous serons capables de produire des choses extraordinaires hors de cet étrange ouvrage qu’est l’être humain » (2). Durant cette dernière partie de sa vie, H. Huxley s’est beaucoup intéressé au devenir de l’humanité. Il est devenu une référence de la « contreculture » des années 1960, au centre du « mouvement du potentiel humain », qui privilégia le développement personnel par le mental et les expériences intérieures.

C’est son frère, Julian Huxley (1887-1975), biologiste, écologiste et humaniste, qui utilisa pour la première fois le terme « transhumaniste » dans un article de 1957 où il dit notamment : « L’exploration enthousiaste mais scientifique des possibilités et des techniques permettant de réaliser nos espérances les rendront rationnelles et insèrera nos idéaux dans le cadre de la réalité, en mettant en évidence ceux qui sont effectivement réalisables. Nous pouvons déjà, à juste titre, affirmer notre conviction que ces domaines de possibilité existent, et que nous pourrions surmonter dans une large mesure les limitations actuelles et les frustrations néfastes de notre existence. Nous sommes déjà convaincus, à juste titre, que la vie humaine telle que la décrit l’histoire est un pis-aller misérable, issu de notre ignorance ; et qu’elle pourrait être transcendée par un état d’existence fondé sur les lumières de la connaissance et de l’entendement (…) » (3). C’est un humanisme dans lequel il était profondément engagé qui dictait les convictions de J. Huxley. A partir des années 1980, le mouvement transhumaniste reprendra le terme mais dans une signification nettement plus marquée, en donnant une importance primordiale et souvent exclusive aux sciences de la matière et aux techniques qui y sont adossées.

artificialhumans25_09

Julian et Aldous Huxley

On peut considérer que les apports des spécialistes en intelligence artificielle M. Minsky et H. Moravec, que nous avons déjà cités, puis plus récemment de Raymond Kurzweil, (1948- ), informaticien, chercheur, entrepreneur et futurologue, ont grandement participé à l’élaboration de ce que l’on appelle actuellement le transhumanisme.  M Minsky et H. Moravec ont répandu l’idée d’une possibilité ultérieure de « téléchargement de l’esprit » sur un support non humain. Mais d’autres figures moins connues ici ont aussi largement contribué de manière emblématique à la construction de ce mouvement. Je prendrai en exemple une figure typique de ce mouvement :  Fereidoun M. Esfandiary (1930-2000), professeur, philosophe et écrivain d’origine persane qui se faisait appeler FM-2030. En 1989, il a publié un livre intitulé : « Êtes-vous un transhumain ? Surveillance et stimulation de votre rythme d’évolution personnel dans un monde en rapide changement. »  Pour le choix de son surnom, on lui prête la phrase suivante : « Le nom 2030 reflète ma conviction que les années aux alentours de 2030 seront des années magiques. En 2030 nous serons immortels et tout un chacun aura de grandes chances de vivre éternellement. 2030 est un rêve et un but. » Il qualifiait les « transhumains » comme des humains transitoires décidant de se mettre en route vers ce qu’il appela « la post humanité ». On lui attribue aussi cette phrase : « Je suis un homme du vingt et unième siècle accidentellement tombé dans le vingtième. J’ai une profonde nostalgie du futur ». Il fut aussi végétarien toute sa vie, ne souhaitant « rien manger qui ait une mère ».

Mort en 2000, il fut le premier à bénéficier de la technologie de la cryoconservation par vitrification. On verra en 2030 si son fol espoir d’immortalité sera exaucé par ce qu’il faudrait alors appeler une résurrection : j’avoue ici mon scepticisme. La cryogénisation avec l’espoir d’une résurrection est l’un des thèmes préférés de nombreux transhumanistes. Cela est dû à l’influence de Robert Ettinger (1918-2011), professeur d’université aux Etats-Unis et transhumaniste notoire, qui publia dès 1962 le livre « La perspective de l’immortalité » et fonda en 1975 « l’institut cryonique » où son corps est conservé. Mais cette idée n’est pas très originale en soi, Le philosophe russe Nicolas Fiodorov (1829-1903), membre du « Mouvement cosmiste russe », croyait déjà en l’immortalité et en la résurrection par des moyens scientifiques…

Les nanosciences et nanotechnologies sont aussi un des domaines de prédilection de nombreux transhumanistes. On peut les définir comme l’étude et l’application de fabrication et d’utilisation de très petites structures, par exemples électroniques ou chimiques, à l’échelle du nanomètre, c’est-à-dire de l’ordre de grandeur de la distance entre deux atomes. C’est dans un discours de 1950 que Richard Feynman (1918-1988), brillant physicien, évoque un domaine de recherche encore inexploré, l’infiniment petit. Il évoque par exemple la possibilité d’écrire l’intégralité d’une encyclopédie sur une tête d’épingle. C’est Norio Taniguchi (1912-1999), professeur en mécanique de précision à l’université de Tokyo, qui introduisit le terme de nanotechnologie. Ce domaine est maintenant en pleine expansion. En 1986, l’ingénieur et chercheur américain Eric Drexler (1955- ), publie un livre intitulé « Les rouages de la création : l’ère de la nanotechnologie qui arrive. » Il y décrit les fantastiques possibilités qu’il pressent dans l’évolution de cette technologie qui ouvre les portes de la manipulation moléculaire. Il y introduit la notion « d’assembleur moléculaire ». Il y met aussi en garde contre les très graves dangers potentiels en cas d’utilisation mal contrôlée : par exemple, des bactéries créées dans un but positif pourraient par la suite se multiplier de manière infinie et causer des ravages biologiques catastrophiques sur tout ce qui est vivant, incluant l’humain. Les nanoparticules ont en effet une forte capacité pénétrante à l’égard des cellules puisqu’elles sont plus petites que ces dernières. Il est donc, selon lui, indispensable d’assurer une maitrise complète de ce domaine. Actuellement, les nanosciences et nanotechnologies sont interdisciplinaires, elles utilisent le numérique comme liant entre des domaines aussi variés que la biologie, la mécanique, la micromécanique. La nano-toxicologie étudie les risques sanitaires et écologiques liés à la toxicité des nanomatériaux. Cela soulève bien sûr des questions éthiques très importantes.

On voit, sur l’exemple des nanotechnologies, mais plus encore concernant le vaste domaine du numérique, que nombre de chercheurs confrontés à un certain vertige face à des domaines à fort potentiel d’évolution rapide, ont commencé à prendre des positions et des engagements militants à la fois en faveur de la poursuite de ces recherches au nom d’un progrès qui serait inéluctable, mais aussi parfois en mettant en garde contre de graves dangers potentiels dans l’utilisation de ces techniques. Partant de là, des personnes d’autres champs, en particulier des philosophes, mais aussi différents opportunistes plus ou moins intéressants se sont ralliés à cette cause. Un véritable « lobbying » s’est mis en place autour des notions de transhumanisme et de posthumanisme, rassemblant de manière hétéroclite des gens sérieux et d’autres aux prédictions plus ou moins farfelues. Ce regroupement informel a aussi rallié nombre de zélateurs aveugles du progrès, tenant des discours comparables à ceux des scientistes du dix-neuvième siècle et fréquemment à l’origine de « start-up » à visée essentiellement commerciale. Il n’empêche que la question des évolutions très rapides de nos modes de vie actuels et à venir en lien avec les techniques demeure posée. C’est une problématique de société au moins aussi importante que celle d’une plus juste répartition des ressources ou celle d’une meilleure prise en compte de celles-ci.

technology

Il faut aussi constater que, dans sa globalité, ce mouvement transhumaniste se fonde sur l’exclusion implicite de toute subjectivité au profit d’une objectivité scientifique supposée au regard de l’efficacité technologique. C’est amputer l’humain d’une dimension essentielle et fondamentale de son être au monde. Plus de réalité ou d’expérience intérieure telle que la prônaient les frères Huxley. C’est cette illusoire et probablement inconsciente évacuation de la subjectivité qui fait le socle de la croyance transhumaniste contemporaine. Mais bien entendu, quand on chasse la subjectivité par la porte, elle rentre par la fenêtre, le problème est alors que souvent les individus concernés ne savent plus qu’elle est là, tapie hors de leur vue, alors que pour l’observateur extérieur elle se voit parfois comme le nez au milieu de leur figure…

Poursuivons encore un peu notre voyage en transhumanité : prenons par exemple David Pearce (date de naissance inconnue -), transhumaniste anglais. En 1995, il a publié sur l’Internet un manifeste intitulé « L’impératif hédoniste » qui dans ses grandes lignes suggère qu’avec un certain nombre de technologies et particulièrement les nanotechnologies, la pharmacologie, la neurochirurgie, et l’ingénierie génétiques on devrait tendre à éradiquer toute forme de souffrance et d’insatisfaction parmi les humains mais aussi parmi tous les êtres sensibles. En conséquence il est devenu végétaliste intégral (plus couramment « végan ») et va même jusqu’à penser que non seulement il faut cesser toute cruauté envers les animaux mais encore que nous devrions restructurer la globalité de l’écosystème afin que la souffrance animale disparaisse même à l’état sauvage ! Militant du paradis sur la terre, il débouche sur une technologie corporelle bien éloignée de son rêve initial, de sa belle utopie, incluant un usage plus développé des drogues. En 1998, il fonde avec le philosophe et transhumaniste suédois Nick Bostrom (1973- ) « L’association transhumaniste mondiale » ultérieurement renommée « Humanité+ ». N. Bostrom a aussi cofondé « L’institut d’éthique pour les technologies émergentes ». En 2002, l’Association transhumaniste mondiale définit le transhumanisme en ces termes : « Un mouvement culturel et intellectuel qui affirme qu’il est possible et souhaitable d’améliorer fondamentalement la condition humaine par l’usage de la raison, particulièrement en développant et diffusant largement les techniques visant à éliminer le vieillissement et à améliorer de manière conséquente les capacités intellectuelles, physiques et psychologiques de l’être humain. » et comme «l’étude des répercussions, des promesses et des dangers potentiels de techniques qui nous permettront de surpasser des contraintes inhérentes  à la nature humaine ainsi que l’étude des problèmes éthiques que soulèvent l’élaboration et l’usage de telles techniques ». (5). Dans un article de 2003 intitulé « Vivons-nous dans une simulation informatique ? », le même auteur fait l’hypothèse qu’à l’avenir notre évolution technologique permettra des simulations numériques tellement élaborées qu’elles nous permettront de créer des esprits et des mondes artificiels. Un seul ordinateur pourrait devenir la résidence de nombreux esprits ainsi simulés. Suivant cette logique, il y aurait assez vite plus d’esprits simulés que d’esprits biologiques.  Les esprits simulés n’auraient cependant pas le moyen de savoir qu’ils sont simulés. Partant de là, sa question est : « Qu’est-ce qui nous prouve en définitive que nous ne sommes pas un monde simulé ? » A son avis, rien ne nous le prouve (6).

téléchargement

Nick Bostrom

Cet auteur s’est aussi intéressé à la notion de téléchargement de l’esprit, déjà évoquée, qui s’appuie sur la notion « d’indépendance du substrat », c’est-à-dire la supposition que la conscience n’est pas attachée à la matière du cerveau mais à certaines de ses caractéristiques reproductibles par simulation informatique et que donc un ordinateur pourrait devenir le siège d’une conscience. Nombre de psychologues cliniciens d’orientation psychodynamiques seraient, à n’en pas douter, d’emblée opposés à une telle hypothèse « physicaliste », argumentant à juste titre que les machines ne possèdent pas les expériences perceptives, ni les sensations corporelles (douleur, faim…), ni les affects (émotions, sentiments…) et c’est aussi mon avis. Il faut cependant considérer que ces idées ne semblent pas farfelues à certaines organisations humaines importantes : Le projet « Cerveau bleu », « Blue brain », alliant la renommée école polytechnique de Lausanne (Suisse) et la société IBM allait dans le sens de cette hypothèse en approfondissant l’architecture et le fonctionnement du cerveau humain. Cette expérience a été prolongée en Europe en 2013 par le « Projet cerveau humain », « Human brain project ». De même aux Etats Unis a été lancé un « Projet de carte de l’activité du cerveau » (« Brain activity map project »), toujours en 2013. Le projet européen, l’une des deux « initiatives phare des technologies futures et émergentes » de l’union européenne porte sur une dizaine d’années, a un coût estimé à 1,2 milliards d’euros et rassemble des milliers de chercheurs de divers instituts répartis dans 22 pays. Il convient cependant de dire que l’on est actuellement encore très loin du cerveau humain : en octobre 2015, l’équipe du « cerveau bleu » a publié un article portant sur la simulation du cerveau d’un rat (31 mille neurones et 40 millions de synapses), ce qui est un résultat loin d’être négligeable mais quand même très éloigné des dizaines de milliards de neurones du cerveau humain. N. Bostrom a aussi publié en 2014 un livre intitulé : « Super intelligence : chemins, dangers, stratégies » (7) dans lequel il évalue l’éventualité qu’il juge fort probable d’une intelligence nouvelle dépassant de loin celle des humains. Cela pourrait, selon lui, nous mettre en danger comme nous, les humains, mettons les singes en grand danger de disparition actuellement…

Diverses questions ont traversé les réflexions des membres hétéroclites des associations humanistes. Je ne ferai qu’en survoler quelques-unes très schématiquement afin d’en donner quelque idée. Par exemple, on a assisté à une confrontation entre les tenants d’un accès équitable pour tous aux « progrès » générés par les techniques et ceux qui à l’inverse voyaient plutôt les structures sociales traditionnelles comme un obstacle à l’avancée des améliorations transhumanistes, des structures à combattre donc ou au moins à contourner. Cette deuxième position est adoptée par les représentants des plus grandes entreprises vivant du numérique, en particulier des Etats Unis. Dans cette vision, ce seraient les plus riches et les mieux informés qui feraient partie de cette sorte d’élite. Des humains traditionnels côtoieraient ainsi à terme des post-humains qui leurs seraient supérieurs… Les critiques des tenants de cette dernière position élitiste décrivent ces transhumanistes là comme des sortes d’égoïstes simplement à la recherche d’une vie plus longue et plus intense au détriment de l’immense majorité des humains.

Autre question : soit on améliore l’humain en « l’augmentant », on se situe alors dans une sorte de prolongement de l’humanisme traditionnel de la période des lumières, soit on crée carrément des êtres intelligents artificiels non humains, comme le suggérait H. Moravec. Ces machines intelligentes auraient à terme une intelligence plus développée et c’est alors l’ensemble des humains qui en seraient les vassaux en quelque sorte. Evidemment cela présente à l’esprit de la plupart aujourd’hui un aspect science-fiction qui rend l’hypothèse peu crédible, mais nous avons abordé dans un article précédent le développement d’agents intelligents artificiels à ambition modeste mais pouvant être interconnectés sur la planète et s’auto-instruire et pourquoi pas interagir sans intervention humaine…

Dernière question délicate que je pointerai ici : de nombreux transhumanistes ont pour visée de « dépasser les limitations biologiques » grâce à une rationalisation interdisciplinaire toujours améliorée. En conséquence, un grand nombre voit ce qui est naturel comme flou et comme obstacle à ce qu’ils considèrent comme le progrès. En cela, ils s’opposent clairement aux nombreux humains, dont je fais partie, qui placent la nature et la préservation des systèmes naturels au centre de leurs préoccupations. Un certain nombre de transhumanistes considèrent ainsi la pensée écologiste comme « bio-conservatrice » et réactionnaire. Mais on trouve aussi un mouvement qui va dans le sens contraire : le « techno-gaïanisme » fonde l’espoir que les progrès technologiques permettront de restaurer l’écosystème par le biais de technologies nouvelles et alternatives… (8).

Comme souvent avec ce mouvement les pieds sont mis dans le plat de questions réelles mais irrésolues, la question portant cette fois sur l’influence, maîtrisée ou non, choisie ou subie, de l’humain sur le vivant dont il fait partie. Il s’agit en définitive le plus souvent de tenter d’améliorer le vivant mais en n’hésitant pas parfois à rejeter les racines culturelles, sociales, politiques, mentales et même physiques inhérentes à l’humain, en n’hésitant pas s’il le faut à rejeter la nature, source du vivant, ce qui n’est pas le moindre des paradoxes. C’est comme s’il y avait pour nombre de transhumanistes comme un impératif illusoire de perfection qui passerait avant tout ; un impératif qui serait précipité par cette évolution de plus en plus rapide des avancées technologiques face à laquelle seules des certitudes pourraient rassurer ces êtres qui s’imaginent aux avant-postes de la mutation contemporaine.

Depuis quelques années, Google est devenu l’un des principaux sponsors du mouvement transhumaniste, notamment par le soutien financier massif des entreprises portant sur les nanotechnologies, biotechnologies, informatique et sciences cognitives (NBIC) et par l’engagement, en décembre 2012, au sein de son équipe dirigeante de R. Kurzweil, spécialiste de l’intelligence artificielle, théoricien du transhumanisme et cofondateur de la Singularity University, financée par Google, prônant le concept de « singularité technologique », c’est-à-dire l’avènement d’une intelligence artificielle qui « dépassera » les capacités du cerveau humain.

L’ambition du géant de l’Internet est ouvertement de réussir à appliquer ses performances dans le domaine des technologies de l’information à celui des technologies de la santé, afin d’améliorer la qualité et de prolonger la durée de la vie humaine, notamment en parvenant à faire de son moteur de recherche la plus performante des intelligences artificielles.

L’ambition des autres géants du numérique (avec en tête des entreprises des Etats Unis et de Chine) n’est pas moindre. De même, les états ou groupements d’états technologiquement avancés sont lancés dans une course au contrôle et à l’espionnage de l’information ainsi que dans une course à l’armement par les moyens numériques et parfois biotechnologiques, sans renoncer pour autant à la prolifération nucléaire. L’aspect délirant de certains pans du transhumanisme n’est hélas que le reflet du fonctionnement déboussolé d’une grande part des états censés nous représenter. L’absence totale de législation cohérente concernant l’imposition des géants du numérique pendant de longues années est un signe parmi d’autres de cette inconséquence. Cet aspect délirant de certains pans du transhumanisme porterait à sourire s’il n’était un signe du désarrimage d’une humanité qui continue actuellement de scier les branches sur lesquelles elle est repose.

 

Philippe Decan                                    Nantes                                            Mars 2019

 

Notes :

(1) http://classiques.uqac.ca/classiques/condorcet/esquisse_tableau_progres_hum/esquisse_tableau_hist.pdf    P. 217 et 218

(2) http://ia600804.us.archive.org/5/items/PsychedelicSalonALL/454HuxleyHumanPotential.mp3

(3) Julian Huxley, In New Bottles for New Wine, éd. Chatto & Windus, Londres, 1957. Traduction française par Annie Gouilleux, décembre 2014. http://archive.wikiwix.com/cache/?url=https%3A%2F%2Fsniadecki.wordpress.com%2F2015%2F01%2F21%2Fhuxley-transhumanisme%2F

(4) Voir aussi à ce sujet mon article précédent sur ce blog

(5) World transhumanist association, « The transhumanist FAQ », 2002, réimpression de 2005 disponible en anglais sur le site de l’association.

(6) Nick Bostrom, « Are we living in a computer simulation? », Avril 2003, dans “The philosophical quarterly, P. 243-255, https://doi.org/10.1111/1467-9213.00309

(7) Oxford university Press. N. Bostrom est actuellement directeur de « l’institut pour le futur de l’humanité » de l’université d’Oxford

(8) Techno gaïanisme : du grec Gaïa, la terre. Selon James Hughes (1961- ), cofondateur de l’institut d’éthique pour les technologies émergentes avec N. Bostrom. Il promeut aussi un transhumanisme démocratique en opposition aux points de vues libertariens : http://archive.wikiwix.com/cache/?url=http%3A%2F%2Fwww.changesurfer.com%2FAcad%2FDemocraticTranshumanism.htm

 

 

 

Des agents intelligents aux calculateurs quantiques.

 

 mindblown.gif

Deux grands courants idéologiques ont traversé les chercheurs en intelligence artificielle, il s’agit de ce que l’on nomme d’une part l’intelligence artificielle faible et d’autre part l’intelligence artificielle forte. Cette dernière pose l’ambition de créer une machine qui non seulement aurait un comportement rationnel intelligent mais encore une machine qui posséderait une sorte de conscience de soi, une compréhension de ses raisonnements et en définitive éprouverait des sentiments. Ce rêve a servi de moteur à de nombreux chercheurs en intelligence artificielle : quoi de plus enthousiasmant que de se prendre pour une sorte de dieu capable de créer un être intelligent, conscient de soi et sensible ? La notion d’intelligence artificielle faible est une approche nettement plus pragmatique. Il s’agit de construire des algorithmes capables de résoudre des problèmes afin d’obtenir des appareillages de plus en plus efficaces et les moins coûteux possibles. On est donc dans une approche toute différente.

L’intelligence artificielle forte est clairement à ce jour une ambition non réalisée, tous en conviennent. Mais les tenants de celle-ci s’appuient sur deux arguments principaux pour en prédire la venue à court terme : d’abord, étayant leur propos sur celui de certains neurologistes, ils sont persuadés que la spécificité humaine de penser et d’être affecté n’est que le résultat d’interactions matérielles et chimiques au niveau en particulier du cerveau et du système nerveux. Le deuxième argument est que pour arriver à une efficience aussi performante que celle du cerveau humain ce qui nous manque aujourd’hui c’est seulement du matériel adapté.

Il convient d’analyser ces deux points de vue effectivement indispensables pour envisager une éventuelle faisabilité d’intelligence artificielle forte. Commençons par le premier point : Il est vrai que certains spécialistes en neurologie sont persuadés que l’intelligence n’est qu’une question de fonctionnement de neurones. Dans la même veine, cela fait longtemps que l’on a repéré dans le cerveau des aires différenciées comme les lieux principaux de telle ou telle activité ou sensation (aire du plaisir, etc.) et avec les progrès de l’imagerie médicale, certains affirment repérer des maladies mentales, telle que la schizophrénie, dans telle ou telle partie du cerveau, sous-entendant qu’en agissant d’une certaine manière sur ces espaces on pourrait donc arriver à guérir cette affection. Il faut constater que cet espoir est à ce jour déçu. Cela ne veut pas forcément dire que le cerveau d’une personne schizophrène ne possède pas quelques différences éventuellement repérables, cela veut dire que la complexité du fonctionnement du cerveau fait que quelque chose nous échappe à ce niveau et qu’en conséquence il est très hasardeux et non scientifique d’affirmer que l’on pourrait guérir de la schizophrénie rien qu’en agissant matériellement sur le cerveau. Pour les mêmes raisons il est tout aussi hasardeux de croire que la spécificité humaine de penser et d’être affecté n’est que le résultat d’interactions matérielles et chimiques au niveau du cerveau et du système nerveux. De plus cette manière de voir exclue la prise en compte de l’existence de l’inconscient or la psychodynamique a prouvé l’existence de motivations inconscientes dans le fonctionnement psychique humain. Les informaticiens qui s’appuient sur le point de vue exclusivement matérialiste de certains spécialistes du cerveau sont donc entraînés sur une piste peu crédible. L’hypothèse de pouvoir ensuite projeter dans la matière inanimée le fonctionnement ultra complexe et en très grande part encore inconnu du cerveau est encore plus hasardeuse et non scientifique. Ne serait-ce que parce que l’on n’a jamais sérieusement envisagé à ce jour la possibilité d’un cerveau humain fonctionnant sans un corps humain.

Continuons l’analyse par le deuxième point c’est à dire le matériel adapté nécessaire : La puissance des ordinateurs des années 1970 a freiné la mise en œuvre de certains logiciels mais de grands progrès ont été faits depuis. A titre d’exemple, un ordinateur de grande puissance de ces années-là pouvait réaliser environ un à cent millions d’instructions par secondes (MIPS). Or dès 1992 on en était à 160 milliards d’instructions par seconde (1). On voit que l’évolution a été extraordinairement rapide et, faisant l’hypothèse que cela continuerait, certains en ont déduit qu’à ce rythme, on aurait assez vite la possibilité d’accéder à quelque chose de comparable à la super-complexité du cerveau humain. Actuellement on estime à cent milliards le nombre de cellules du cerveau humain. Ce chiffre est parfois contesté à la baisse pour arriver à quatre-vingt-quatre milliards, ce qui est déjà pas mal. Partant de là on entre dans l’approximatif qui dépend de la louche que l’on utilise, mais bon, certains ont fait des estimations : le cerveau serait capable de traiter jusqu’à 10 puissance 13 opérations par seconde or, en 2015, les progrès ayant continué, on en était à peu près à la même puissance de calcul pour un ordinateur à usage individuel très performant. Il semblerait même que certains « superordinateurs » non accessibles aux particuliers aient dépassé cette puissance opérationnelle du cerveau humain.

La capacité à faire des opérations logiques, calculées en MIPS, est une chose nécessaire, y ajouter la mémoire, que l’on évalue en nombre d’octets, en est une autre tout aussi indispensable. En ce domaine des très grands progrès ont également été accomplis autorisant maintenant, par exemple, une reconnaissance faciale numérique plus efficace que la reconnaissance faciale humaine grâce à un très grand nombre d’images mémorisées par les collecteurs de données que nous alimentons chaque jour (Google, Facebook ou autres)

Mais concernant l’éventuelle élaboration d’un cerveau artificiel aussi performant que l’humain, il faut aussi considérer que le cerveau de ce dernier est par ailleurs constitué à cinquante pour cent d’autres cellules que les neurones, nommées cellules gliales, qui servent d’environnement nutritionnel pour les neurones. Or depuis peu on a découvert que ces cellules gliales sont également impliquées dans le traitement de l’information en exerçant une action modulatrice sur la neurotransmission. Ce phénomène reste en grande part encore inexploré : voilà qui complique bien la tâche des apprentis créateurs de cerveau artificiel.

Les chercheurs en intelligence artificielle font pourtant des trouvailles fort impressionnantes qui transforment à maints égards la manière d’être humain. Ils développent indéniablement des formes d’intelligence comparables à certains aspects de l’intelligence humaine, particulièrement tout ce qui est de l’ordre du calcul, et ces formes d’intelligence méritent toute notre attention. Ils sont cependant dans l’illusion quand ils prétendent reproduire l’intelligence humaine ou produire une intelligence semblable : ils produisent une autre forme d’intelligence, désaffectée.

Revenons donc plutôt au développement déjà connu de l’intelligence artificielle : Durant les années 1990, un nouvel acteur important est entré en jeu : l’agent intelligent. Selon la définition la plus simple communément admise en intelligence artificielle (IA), un agent intelligent (AI) est une entité autonome capable de percevoir son environnement grâce à des capteurs et aussi d’agir sur celui-ci via des effecteurs afin de réaliser des buts.  Un agent intelligent peut également apprendre ou utiliser des connaissances pour pouvoir réaliser ses objectifs (2). Même si l’idée de simplifier le problème global de l’intelligence en petits modules autonomes éventuellement complémentaires était venue à l’esprit des premiers chercheurs en intelligence artificielle, il a fallu attendre toutes ces années et surtout un certain nombre d’innovations pour en arriver aux agents intelligents (3).

Remarquons que cette nouvelle entité ainsi définie, un agent qui a une certaine perception de son environnement et qui peut moduler ses actions sur cet environnement afin d’atteindre un objectif, permet d’élargir la notion d’intelligence à de nombreuses entités, simples ou complexes : des programmes informatiques capables de résoudre des problèmes en relation avec un environnement changeant peuvent être considérés comme des agents intelligents, mais tout autant des êtres humains ou des groupes d’êtres humains comme des sociétés ou des organismes publics. Pourquoi pas aussi des animaux. On assiste du coup à un déplacement de la notion d’intelligence artificielle qui devient un sous-ensemble du domaine de l’étude des agents intelligents. Par cette définition on voit donc émerger un nouveau domaine qui englobe l’intelligence comme plus vaste que la seule intelligence humaine de référence. Adopter cette approche a des conséquences philosophiques, sociologiques et psychologiques importantes. La notion d’agent intelligent est aussi particulièrement utile en matière de robotique. De nombreuses innovations étonnantes émergent actuellement dans ce domaine.

7U71.gif    447d5c82b4f89b0c6d894c92f69ef9f3.gif

Deux agents intelligents?

Construire des agents intelligents qui ont une efficacité indéniable dans un petit domaine, c’est bien, mais, tout comme il existe une sorte d’intelligence collective chez les humains, si l’on devient en plus capables d’homogénéiser certains éléments constitutifs des agents intelligents, on crée une sorte d’intelligence collective machinique, un système interactif plus efficace à base d’agents intelligents. L’interactivité de cette intelligence collective des machines avec l’intelligence humaine individuelle ou collective est bien entendu le but principal poursuivi.

On peut en donner un exemple remarquable avec ce que l’on a nommé le « web sémantique ». Pour comprendre l’enjeu, rappelons que c’est principalement Tim Berners-Lee (1955- ), physicien et informaticien, qui, au début des années 1990, a inventé le « World wide web », couramment appelé la toile, que nous sommes très nombreux à utiliser depuis. En 1994, il a en outre fondé le « world wide web consortium » (W3C). Ce que T. Berners-Lee a appelé le web sémantique est une extension du web qui propose une standardisation dans l’utilisation des outils du web (formats de données et protocoles d’échanges) avec un format de base commun. Autrement dit, selon le W3C, « le web sémantique fournit un modèle qui permet aux données d’être partagées et réutilisées entre plusieurs applications, entreprises et groupes d’utilisateurs. » Son inventeur a défini le web sémantique comme « une toile de données qui peuvent être traitées directement et indirectement par des machines pour aider leurs utilisateurs à créer de nouvelles connaissances » (4). Il s’agit de structurer et lier l’information sur le web de manière à accéder plus efficacement à la connaissance qu’il contient déjà. L’idée est d’étendre le réseau de liens hypertextes lisibles par la machine (5). Ces données « méta », liées entre elles, permettent à ces agents intelligents d’accéder au web de manière plus efficace et d’effectuer des tâches au service des utilisateurs.  Le but est donc en définitive ici de permettre aux utilisateurs de trouver, partager et combiner les informations plus facilement.

téléchargement.jpg

Tim Berners Lee inventeur de la toile

Le Web sémantique, comme prévu initialement, est un système qui permet aux machines de « comprendre » et de répondre aux demandes complexes de l’homme en fonction du sens de ces demandes. Une telle « compréhension » exige que les sources d’information pertinentes aient été sémantiquement structurées au préalable. Tim Berners-Lee à l’origine exprimait la vision du Web sémantique comme suit : « Je rêve d’un Web (dans lequel les ordinateurs) deviennent capables d’analyser toutes les données du Web : le contenu, les liens, et les transactions entre personnes et ordinateurs. Un « Web Sémantique », qui devrait rendre cela possible, n’a pas encore émergé, mais quand il le fera, les mécanismes journaliers du commerce, de l’administration et de nos vies quotidiennes seront traités par des machines dialoguant avec d’autres machines. Les « agents intelligents » qu’on nous vante depuis longtemps se concrétiseraient enfin. » (6) On peut dire qu’aujourd’hui nous y sommes déjà en très grande part.

La question du web sémantique, qui est depuis plus souvent appelé « web des données », est éminemment intéressante et complexe et mériterait à elle seule de nombreux développements, mais pour ce qui nous intéresse ici, comme on le voit, raisonner en termes d’agents intelligents et d’interaction entre ces agents ouvre des perspectives nouvelles et l’exemple du web des données l’illustre parfaitement. Outre le développement d’agents intelligents dans tel ou tel domaine, il s’agit donc de développer aussi des « architectures agent » dans lesquelles des réseaux d’agents ont un langage et un mode d’échange commun, dans le but de construire des systèmes plus intelligents et plus interactifs avec l’humain à base d’agents intelligents.

Si l’on réfléchit du coup à l’ambition affiché par T. Berners-Lee concernant le web des données, à savoir l’instauration d’une sorte d’intelligence machinique collective capable d’une interface cohérente avec les humains, on est en droit de s’interroger sur le fait que les humains sont actuellement très loin d’être capables d’une intelligence collective, globale et cohérente entre eux.

Certains n’en démordent toujours pas et poursuivent encore l’hypothèse d’une intelligence artificielle forte. Ils affirment que certes avec les ordinateurs actuels utilisant des symboles mathématiques l’éventualité d’arriver à la réalisation d’un cerveau artificiel aussi performant que l’humain est quasiment impossible, mais que grâce aux apports de la physique quantique on pourrait arriver à créer des intelligences aussi précises et efficaces que le cerveau. L’idée serait de réaliser des ordinateurs quantiques, on parle plus couramment de calculateurs quantiques. Qu’est-ce donc qu’un calculateur quantique ?

Rappelons qu’au vingtième siècle sont apparues deux nouvelles théories physiques qui sont venues bouleverser les idées qui dominaient jusque-là dans ce domaine, il s’agit de la théorie de la relativité, dont nous connaissons tous l’instigateur principal, Albert Einstein (1879-1955), et de la physique quantique à laquelle il a aussi beaucoup contribué. Ces deux théories fondamentales de la physique contemporaine n’ont pas encore pu être harmonisées, unifiées, rendues compatibles à ce jour. Les théories quantiques décrivent le fonctionnement des éléments très petits comme les atomes et les nanoparticules. Ces théories sont difficiles à comprendre car le fonctionnement des très petits éléments se révèle totalement différent du fonctionnement des éléments à notre échelle, perceptibles par nos sens. Le fonctionnement de ces nano-éléments nous est donc difficilement représentable. La première règle paradoxale de la physique quantique est le fait qu’un tel élément peut être dans plusieurs états à la fois, il peut même être à un très grand nombre d’états en même temps ! C’est difficilement imaginable, mais c’est ainsi que cela se passe dans le monde microscopique. Un électron peut par exemple être en un endroit et en d’autres de son orbite à la fois, avoir une vitesse et en avoir une autre à la fois. Cela s’appelle le principe de superposition. Un autre aspect tout aussi déconcertant est qu’à partir du moment où l’on observe un nano-élément tel qu’un électron par exemple, son emplacement et sa vitesse se figent définitivement à nos yeux, c’est-à-dire qu’on le trouve en un seul endroit et alors qu’il avait une seule vitesse et cet état figé devient irréversible ! C’est ce que l’on a appelé le principe de décohérence. Cerise sur le gâteau, plus on sait à quelle vitesse va un électron, moins on sait où il est, et réciproquement ! On imagine aisément la complexité à décrire la multiplicité des états possibles d’un microélément tellement variable. C’est une fois de plus grâce aux mathématiques, en particulier aux probabilités, que l’on a pu élaborer des formules décrivant les mouvements paradoxaux des nano-éléments.

Dès les années 1970-1980, certains ont émis l’hypothèse d’utiliser les phénomènes quantiques pour faire des calculs inaccessibles par les voies classiques. Cela a soulevé un très grand scepticisme chez la plupart des physiciens de l’époque. Mais depuis, en particulier depuis les années 2000 et plus encore ces dernières années, des avancées importantes ont eu lieu. Les pays les plus technologiquement avancés consacrent actuellement de nombreux millions d’euros, de dollars, de roubles ou de yens aux recherches dans ce domaine tant l’enjeu est immense. Un calculateur quantique programmable et complet donnerait en effet selon les scientifiques une puissance de calcul inimaginable jusque-là, bien supérieure aux prouesses déjà réalisées par nos ordinateurs récents. Mais les obstacles demeurent nombreux. Face à des discours contradictoires, il est actuellement difficile pour le non spécialiste de se faire une idée. Le discours le plus répandu est que d’ici dix à quinze ans, des logarithmes quantiques conséquents seraient opérationnels.

Pour ce qui concerne notre sujet, retenons simplement que dans le domaine des calculateurs quantiques, on ne raisonne plus de manière binaire, c’est-à-dire avec des assemblages de 0 et de 1, mais avec une infinité de possibilités probables d’états entre 0 et 1. On quitte donc le domaine du numérique avec tout l’édifice que nous avons abordé jusqu’ici. D’ailleurs on ne raisonne plus en termes de « bits » (0 ou 1), mais en termes de « qubits ». Le terme provient de l’association des deux premières lettres de quantique avec le terme bit.  Le bit est l’unité la plus simple dans un système de numération, ne pouvant prendre que deux valeurs, désignées par les chiffres 0 et 1. Le Qubit est l’état quantique qui représente la plus petite unité de stockage d’information quantique, soit la superposition de tous les états possibles entre 0 et 1. Un circuit de calcul quantique travaille sur un jeu de plusieurs qubits. Pour l’équivalent de 250 qubits en interaction, il faudrait, nous dit un spécialiste (7), environ 10 puissance 80 bits classiques pour stocker l’équivalent d’information. C’est, poursuit-il, probablement plus d’atomes qu’il n’y en a dans l’univers visible ! Même si nous ne savons pas comment il fait pour calculer le nombre d’atomes dans l’univers visible, on comprend que cela fait vraiment beaucoup… Pour pouvoir parler d’informatique quantique, il faut d’une part concevoir des algorithmes adaptés et d’autre part réaliser des structures physiques pour les exécuter. Cela relève encore du défi en l’état actuel des connaissances. Le prix Nobel 2012 est allé conjointement à Serge Haroche et David Wineland pour leurs travaux sur le maintien et l’observation de qubits.

Bon, mais concrètement, qu’est-ce que cela changerait de réussir à créer un ordinateur quantique ? La première conséquence est inquiétante : en l’état actuel des systèmes de sécurité informatique et de chiffrement, un calculateur quantique pourrait casser instantanément tous les systèmes de chiffrement qui existent. C’est ce que les spécialistes nomment la « cryptocalypse ». Cela permettrait la mise à nu de toutes les données sécurisées : identifiants bancaires, secrets d’états et secrets militaires, données accumulées par les géants du net, bref cela provoquerait une panique générale. C’est pour éviter une telle occurrence et alors même qu’il n’existe pas encore de calculateur quantique au sens propre du terme, que de nombreux chercheurs en cryptographie travaillent d’ores et déjà sur des algorithmes de sécurité actuels afin d’en repérer les failles et d’y trouver des parades au cas où un tel calculateur verrait le jour. En effet, résoudre le problème mathématique qui est à la base du chiffrement de la confidentialité (par exemple pour les cartes bancaires) prendrait selon des spécialistes un milliard d’années à un ordinateur classique mais seulement quelques centaines de secondes à un appareil de quelques milliers de qubits (qu’on est encore loin d’avoir réalisé).

Mais cette puissance de calcul n’aurait pas que des inconvénients : elle permettrait la résolution d’équations extrêmement complexes qui ne sont actuellement pas à notre portée. Grâce à cela on pourrait faire évoluer nos capacités d’action sur la matière de manière prodigieuse qu’il est assez difficile de se représenter. Cela permettrait des innovations technologiques qui auraient de très grandes répercussions possibles par exemple dans le domaine de la santé ou sur le plan de l’écologie. Evidemment, un outil, même aussi fantastique, dépend de l’usage qui en est fait.

Roger Penrose (1931-  ) est un éminent mathématicien, physicien et épistémologue britannique qui a entre autres beaucoup collaboré avec S. Hawking dont j’ai déjà parlé. Il est surtout connu du grand public pour ses pavages géométriques constitués de deux ou plusieurs formes ayant la propriété de couvrir entièrement un plan mais de manière non périodique. Cela donne de superbes formes attrayantes pour le regard.

collection-penrose-table-design-ichkar-bazartherapy-boutique-paris-blog-espritdesign-13

Roger Penrose et l’un de ses pavages

Mais il a fait de bien plus importantes découvertes dans le champ de la théorie de la relativité et dans celui du calcul quantique, découvertes qui lui ont valu de nombreuses distinctions. Ce qui nous intéresse ici plus particulièrement, ce sont deux ouvrages, intitulés « L’esprit, l’ordinateur et les lois de la physique » et « Les ombres de l’esprit ». (7) Dans ces deux livres, il interroge les liens entre conscience humaine et champ numérique. Il développe l’idée que les ordinateurs sont incapables de reproduire l’intelligence et la conscience des humains car selon lui les ordinateurs sont limités du fait qu’ils sont des systèmes déterministes et donc incapables de prendre le recul dont est capable l’humain. D’après lui, un mathématicien, par exemple, est capable de s’extraire du système formel dans lequel il raisonne à un moment donné. Cette « extraction » pourrait elle-même être formalisée dans le domaine numérique, mais selon lui pas dans tous les systèmes formels possibles, à la différence de l’humain. Voilà une approche qui semble compatible avec les fondements de l’approche psychodynamique. R. Penrose pense néanmoins qu’une intelligence artificielle efficiente serait possible si on se basait sur des processus quantiques. Il pense en effet que ce sont des processus quantiques qui entrent en jeu dans la conscience humaine : c’est un pari épistémologique osé qu’il serait bien difficile à mon avis d’étayer scientifiquement. On ne saurait guère plus affirmer indéniablement le contraire. C’est un autre pari épistémologique tout aussi hypothétique qu’en définitive je trouve seulement à y opposer, à savoir l’irréductibilité du vivant à de l’anorganique. Quoiqu’il en soit, l’émergence de calculateurs quantiques efficients viendrait, viendra probablement, encore grandement bouleverser bien des domaines de nos vies inféodées à la technologie.

Essayons pour conclure une ébauche de point de vue métapsychologique : Une forme d’intelligence spécifique à l’humain, l’intelligence abstraite symbolique a pu lentement émerger au fil du temps. L’observation attentive du ciel et la capacité progressive de découper le temps indépendamment des aléas de la nature ont grandement participé à cette émancipation. Cela a permis aux humains un décalage, un décollement du réel. Cela nous a permis une capacité d’action impressionnante sur ce réel, toutes nos inventions sont la conséquence de cette capacité d’abstraction. Les notions d’imaginaire et de symbolique proposées par J. Lacan ont permis de bien prendre la mesure de la spécificité humaine face au réel, de bien percevoir comment par ce prodige de l’abstraction nous avons pu dans une certaine mesure nous « désencager du réel » (J. Lacan).  Un autre prodige s’est passé récemment : nous avons été capables de faire passer ce mode de raisonnement dans des étant désincarnés, les ordinateurs. Des qualités spécifiques de la matière désincarnée ont même permis de faire fonctionner ces machines de manière infiniment plus rapides que nous pour tout ce qui est de l’ordre du calcul, c’est-à-dire pour le noyau du raisonnement abstrait. Par l’avènement fort possible de l’informatique quantique, des possibilités encore beaucoup plus impressionnantes de rapidité de calcul dans certains champs semblent sérieusement envisageables à court terme. Ces possibilités dépassent grandement l’entendement habituellement permis pas nos sens et un certain vertige s’empare parfois de nous : où allons-nous ? Qu’en est-il de l’humain dans tout cela ? Quelle est-cette force de raisonnement qui surgit si puissante ? D’où vient-elle et qu’en ferons-nous ?  En sommes-nous maîtres ou deviendrons-nous ses esclaves, comme certains le pensent ? La prodigieuse efficience en devenir du raisonnement désincarné dans les machines qui est un pur produit du raisonnement abstrait qui a peu à peu émergé chez les humains nous oblige à reconsidérer notre être au monde. Considérer dans sa globalité le devenir de cette entité analytique désincarnée devient une priorité pour les sciences humaines. On ne peut plus penser la spécificité humaine sans tenir compte de cette émergence. La place de nos subjectivités, autre fondement de notre inventivité, qui trouve quant à elle son origine au cœur de notre incarnation, de notre incorporation, de notre animalité, ne peut plus être abordée sans prendre en compte ces bouleversements récents. C’est l’interaction magique entre incarnation et abstraction qui fait de nous des êtres au carrefour de l’animalité et de la machinerie, de plus en plus responsables du vivant connu ainsi que de l’orientation de nos choix d’abstractions mises en machines. Car en réalité quelle est jusqu’à présent la part de choix dans l’évolution prodigieuse de nos inventions ? Un moteur intérieur impératif semble s’être mis en marche il y a fort longtemps. De génération en génération, il s’est trouvé des individus pris de passion pour élargir le cercle des connaissances, les transmettre et les appliquer pour inféoder une part du réel sans que nous ne sachions où cela nous mène. Une fois tombée l’illusion du progrès infini, nous devons faire face à des choix d’évolution nouveaux, au-delà des anciennes croyances et du scientisme illusoires, l’humanité est de plus en plus sommée de faire des choix collectifs et individuels d’orientation de notre être au monde.

Philippe Decan                                 Nantes                                Février 2019

Notes :

(1) Processeur Intel de modèle Paragon XP S4000.

(2) Définition proposée par Stuart Russel (1962- ), et Peter Norvig (1956- ), chercheurs en informatique, dans leur livre universitaire intitulé « Artificial Intelligence : A Modern Approach », éditeur Pearson, 2010, P. 37. Utilisé dans la plupart des universités traitant de l’intelligence artificielle et considéré comme une référence incontournable dans ce domaine, il semble que ce livre n’ait pas encore été traduit en français !)

(3) Judea Pearl et Allan Newell ont entre autres amené des concepts de la théorie mathématique de la décision et du domaine de l’économie. En particulier, la notion du champ économique « d’agent rationnel» appliquée au domaine informatique a été très fructueuse pour l’invention d’agents intelligents efficaces.

(4) Tim Berners-Lee, « The semantic Web», Scientific american magazine, mai 2001, cité par article wikipedia sur le web sémantique.

(5) Un lien hypertexte ou hyperlien permet en cliquant dessus d’atteindre un autre endroit de la page, une autre page ou un autre site évalué comme pertinent par l’auteur. C’est un mode d’organisation d’un document. Il a une source (ou origine) et une destination (ou cible). L’activation de l’élément source d’un hyperlien permet de passer automatiquement à sa destination. La source d’un hyperlien est généralement un élément (mots, phrases, images) d’un document hypertexte. La destination peut être un autre élément du même document, il s’agit alors d’un hyperlien interne au document. La destination peut également être un autre document, voire un élément précis d’un autre document) des pages web lisibles humainement en insérant en plus sur ces pages des données (souvent appelées métadonnées).

(6) Extrait de l’article de Wikipedia sur le web sémantique ; la reference donnée pour la citation est : « Tim Berners Lee, Fischetti, Mark, « Weaving the web», Harper, San Francisco, 1999 »)

(7) Bernard Ourghanlian, directeur technique et sécurité de Microsoft France, interviewé par Anne Cagan en Mars 2018, https://www.journaldugeek.com/dossier/ordinateur-quantique-quest-va-changer-concretement/

(8) « The Emperor’s New Mind: Concerning Computers, Minds, and The Laws of Physics», Oxford University Press, 1989 traduit en français sous le titre « L’esprit, l’ordinateur et les lois de la physique», Paris, Dunod Inter Éditions, 1998 et « Shadows of the Mind: A Search for the Missing Science of Consciousness », Oxford University Press, 1994 (ISBN 0-19-853978-9) ; traduit en français sous le titre « Les ombres de l’esprit. À la recherche d’une science de la conscience », Paris, Dunod Inter Éditions, 1995.

Logique, cerveau et machine.

 

 giphy (4).gif

Donald Hebb (1904-1985) est un psychologue cognitiviste et neuropsychologue canadien qui publia en 1949 un livre intitulé « l’organisation du comportement : une théorie neuropsychologique » dans lequel il affirma que la psychologie n’est ni plus ni moins que l’étude du système nerveux, ce en quoi nous ne saurions bien entendu l’approuver. Entre 1951 et 1954, grâce à un budget de la CIA, il développa la méthode de la privation sensorielle, méthode qui peut avoir une visée thérapeutique, mais qui a surtout servi de base à la torture sans atteinte corporelle visible. (1)

Pour la réflexion qui nous intéresse ici, il fut surtout l’auteur d’une hypothèse importante concernant le fonctionnement du cerveau humain et l’application aux systèmes neuronaux artificiels : «  Quand un axone d’une cellule A est assez proche pour exciter une cellule B et prend part à cette excitation de manière répétitive ou persistante, quelques processus de développement ou de changement métabolique prennent place dans une ou l’autre cellule de telle manière que l’efficience de A, considérée comme une des cellules excitant B, est augmentée » (2) Pour le dire clairement : deux neurones en activité conjointe renforcent leur connexion de manière telle que l’excitation de l’un par l’autre sera facilitée par la suite.

Remarquons que S. Freud s’était déjà intéressé à ce type de questions dès 1895 dans l’article « Esquisse d’une psychologie scientifique » (3) en raisonnant en termes de « frayage dans les connexions de neurones », « d’association par simultanéité » et de « réactivation des images mnémoniques. »

Ce que l’on appelle depuis la synapse de Hebb, même s’il est clair que l’on ne peut réduire le fonctionnement du cerveau à cela, jouera un grand rôle d’une part dans les théories neurobiologiques de la mémoire et d’autre part pour comprendre une part des phénomènes d’apprentissage et les appliquer aux réseaux de neurones artificiels. D. Hebb ira plus loin en généralisant cette hypothèse à des groupes de cellules, ce qui permettrait, selon lui, l’émergence de représentations mentales qui, par interactions, formeraient la pensée…

C’est surtout Frank Rosenblatt (1928-1971), psychologue et informaticien, considéré comme le principal représentant du mouvement qui voulait construire l’intelligence artificielle par imitation du réseau neuronal humain, qui utilisa cette hypothèse en fabriquant un type de réseaux neuronaux artificiel qu’il nomma le perceptron. Le perceptron est le plus simple des modèles de neurones artificiels. Il permet l’apprentissage, comme la synapse de Hebb, mais il est en plus capable de tenir compte de la différence entre le résultat attendu et le résultat effectif, ou, pour le dire trop simplement, de corriger ses erreurs. Grâce au perceptron, ce chercheur espérait lui aussi permettre aux machines d’apprendre et de prendre des décisions de manière autonome. Des recherches furent menées dans ce sens mais elles furent brutalement interrompues en 1969 par un livre très critique de collègues ne partageant pas ses vues, puis par sa mort accidentelle quelques temps après. Une bonne dizaine d’années plus tard la recherche sur les réseaux artificiels de neurones, aussi appelée connexionnisme, reprendra néanmoins avec force. (4)

téléchargement (2)

Frank Rosenblatt

L’autre approche essentielle pour l’avènement de l’intelligence artificielle, la pratique logicienne du raisonnement appliquée aux machines, dont J. McCarthy a probablement été le principal représentant, a aussi rencontré à cette époque des butoirs importants, car fréquemment il fallait un nombre énorme d’opérations pour faire résoudre des problèmes relativement simples à la machine. L’invention du langage Prolog (abréviation de programmation logique) par Alain Colmerauer (1941-2017) et Philippe Roussel (1945-  ), tous deux enseignants chercheurs en informatique, a permis de simplifier ce système de déduction. Certains psychologues cognitivistes ont critiqué l’approche logicienne, arguant à juste titre que les humains ne fonctionnent en général pas sur le modèle de la déduction logique rigoureuse, à quoi J. McCarthy a répondu que le but de ses recherches n’était pas d’avoir des machines qui pensent comme des humains, mais des machines qui résolvent des problèmes.

Face aux difficultés importantes soulevées par les tentatives de résolution logique de l’intelligence artificielle, est apparue la théorie de la complexité. La théorie de la complexité étudie la quantité de temps mais aussi la parfois quantité d’espace nécessaires pour résoudre un problème au moyen d’un algorithme. La quantité de temps, ou durée de résolution est directement liée au nombre d’opérations nécessaires à la résolution logique du problème et la quantité d’espace est directement liée à la mémoire nécessaire pour atteindre ce but. La théorie de la complexité établit des hiérarchies de difficultés entre les problèmes algorithmiques. Les niveaux de difficulté sont appelés classes de complexité. L’informaticien et mathématicien Stephen Cook (1939- ) a apporté des contributions essentielles à la théorie de la complexité. Entrer dans les détails de ces problèmes de logique nous emmènerait trop loin. Pour le situer très schématiquement, on dira que souvent on connaît de manière plus ou moins empirique ou intuitive des solutions à un problème mais la difficulté avec les machines qui fonctionnent sur le formalisme logique, c’est de mettre tout cela en équations au déroulement logique, par des calculs « intelligents » et reproductibles. Stephen Cook a montré dans un article de 1971 intitulé « la complexité des procédures de démonstration des problèmes » que dans bien des cas il n’y a pas de procédure efficace (raisonnablement courte) de démonstration des théorèmes. Cela constitua bien sûr une fois de plus un pavé dans la mare des défenseurs de la logique pure dont J. McCarthy était le chef de file.

Certains de ses collègues critiquèrent d’ailleurs le point de vue rigoriste de ce dernier : en particulier M. Minsky et S. Papert (précités) mais aussi Roger Schank (1946-  ). Ce dernier, professeur en informatique qui tenta d’introduire la prise en compte de scénarios dans les mémoires informatiques comme il lui semblait que c’était le cas chez les humains. Tentons d’expliquer : pour les tenants de la logique rigoureuse, quand nous nous rendons dans une pièce, nous faisons le chemin en fonction d’algorithmes tels que : ouvrir la porte, puis entrer, etc. R. Schank propose plutôt que nous réalisons ces actes en fonction de « schémas » préétablis stockés dans notre mémoire et basés sur l’accumulation d’expériences et d’apprentissages antérieurs : nous n’avons pas à refaire tout le chemin d’apprentissage à chaque fois. R. Schank tenta d’utiliser la projection de cette idée aux logiciels de reconnaissance de l’anglais avec un succès quand même mitigé au fil du temps. (5) Cet essoufflement invalidant a été dû au fait que de telles conceptualisations sont trop imprécises donc trop floues. R. Schank appelait ces approches approximatives « les approches brouillonnes » en opposition aux « approches élégantes » de la logique rigoriste. Dans la même lignée, là où R. Schank parlait de « scripts », M. Minsky parlait de « cadres de travail » qui visaient à englober un certain nombre de données de culture générale se rapportant aux questions et aux thèmes à traiter. La constitution de réseaux sémantiques déjà évoquée retrouvait là toute son importance. Par exemple le signifiant « oiseau » génère une série d’autres signifiants tels que « vole », « mange des vers », « construit des nids », etc. Ces faits ne sont pas vrais pour tous les oiseaux mais constituent un contexte, un cadre aidant pour simplifier le travail de programmation, exactement comme ce contexte est en tout humain psychiquement efficient.

Les années 1970 ont été le moment d’un tournant important : peu à peu, malgré les réticences initiales, s’est quand même imposée l’idée que l’intelligence était basée sur la capacité à utiliser sciemment une grande quantité d’informations générales, de connaissances diverses, autrement dit basée sur le traitement de la connaissance acquise. Les systèmes d’accumulation de connaissances, les bases de connaissances ainsi que l’ingénierie de ces connaissances sont ensuite devenus centraux dans la recherche en intelligence artificielle.

Les années allant approximativement de 1980 à 1990 furent d’abord marquées par l’arrivée des « systèmes experts ».  Un système expert est un outil informatique visant à reproduire les mécanismes cognitifs logiques d’un expert humain dans un domaine particulier. Un tel logiciel est composé de trois parties : une base de faits, une base de règles et un moteur d’inférence. Un moteur d’inférence a pour but d’utiliser des faits pour en déduire de nouveaux faits et parvenir à la réponse à la question posée. L’avantage de cette trouvaille est qu’elle fonctionne sur une logique simple et n’a besoin que d’une série assez restreinte de faits, d’informations spécialisées et non pas d’une « culture générale » étendue. Un système expert sert la plupart du temps concrètement à aider à prendre une décision.  C’est Edward Feigenbaum (1936-  ), professeur en informatique qui, aidé de quelques autres, commença à créer dès 1965 le premier de ces systèmes destiné à analyser des composants chimiques. Les systèmes experts ont pour la première fois permis à l’intelligence artificielle de produire une utilité pratique et incontestablement rentable pour les entreprises concernées. Ils ont rencontré un succès commercial important et certains sont encore en fonction actuellement. Cependant ces systèmes ont aussi assez rapidement montré leurs limites. D’une part au-delà d’une centaine de règles on a constaté qu’il devenait difficile de suivre le mode de déduction du système et donc de le finaliser. D’autre part l’expert humain a aussi la capacité d’inventer des solutions intuitives tenant compte de ses connaissances et de son expérience, capacité que ne possédaient pas les systèmes experts.

En 1987, les performances des micro-ordinateurs invalident le matériel lourd de recherche en intelligence artificielle, en particulier le matériel attaché aux systèmes experts. On se rend de plus en plus compte que ces systèmes coûtent trop cher, que leur maintenance est complexe, qu’ils sont difficiles à mettre à jour, qu’ils ne peuvent pas apprendre, qu’ils peuvent faire des erreurs énormes dès que les paramètres sortent des valeurs habituelles et que tous comptes faits leur utilité se limite exclusivement à des domaines très spécifiés. Une bulle financière éclata et cette industrie s’effondra très rapidement. Les budgets des organismes d’états furent à nouveau coupés. Le domaine de l’apprentissage automatique sera ultérieurement une piste précieuse pour dépasser ces limites.

En 1984, Douglas Lenat (1950- ), ingénieur en informatique et enseignant, a commencé à mettre en œuvre un ambitieux programme nommé Cyc (abréviation d’encyclopédie). Cyc est une tentative de réponse au problème d’acquisition de la culture générale par les machines. Il s’agit d’une énorme base de connaissances dont le but est de permettre à des applications d’intelligence artificielle de raisonner comme un humain moyen. Cette base de connaissance contient actuellement plus d’un million d’assertions, de règles et d’idées. La mise en œuvre est encore en cours à ce jour. Il s’agit surtout de formaliser les informations de la vie courante et de mettre au point des mécanismes d’inférence appliqués à ces connaissances. La communication en langage « naturel » avec l’utilisateur et l’auto-acquisition de connaissances par la machine à l’aide de l’apprentissage automatique y ont aussi pris de plus en plus de place. Douglas Lenat promeut un « système logiciel-humain qui deviendra surhumain, au même titre que l’humanité acquérant l’écriture l’est devenue par rapport à l’humanité auparavant. » Pour situer l’ambition du projet, il n’hésite pas à comparer Google à un chien qui va chercher le journal de son maître mais qui ne sait pas lire, lui veut une interface avec une machine qui sait lire. Mais bon, Google et quelques autres entités comparables savent quand même lire, interpréter et utiliser quelques éléments non négligeables… Par ailleurs, Cyc rencontre de nombreuses critiques : la multiplication des règles le rend difficilement utilisable par les informaticiens non spécialisés et rend le système trop complexe et, malgré cela, la persistance d’une documentation limitée entraine un certain nombre de trous dans la connaissance… Inexorable résurgence du manque !

C’est à 1982 que l’on peut faire remonter le retour du connexionnisme, c’est-à-dire de la recherche sur les réseaux neuronaux artificiels. Cette année là, le physicien et biologiste John Hopfield (1933- ) a démontré qu’un certain type de réseau neuronal, que l’on appelle depuis un réseau Hopfield, pouvait apprendre et traiter l’information d’une manière nouvelle, mais… un peu trop complexe à expliquer simplement ici. De même le psychologue David Rumelhart (1942-2011) a mis en 1982 à jour une nouvelle approche des réseaux neuronaux. Avec un autre psychologue, James McLeland (1948- ), il a participé à rassembler le domaine de la recherche par réseaux de neurones. Ce domaine connaîtra un succès grandissant au fil des ans et deviendra rentable à partir des années 1990, notamment grâce aux progrès de la reconnaissance optique et de la reconnaissance vocale.

A la fin des années 1980, à l’inverse de l’approche logicienne, certains chercheurs décident de se centrer sur le corps. Dans la lignée du philosophe H. Dreyfus précité, ils pensent que l’intelligence ne peut se faire qu’à partir d’un corps, c’est ce qui les décide à en passer par la robotique. Pour eux, une intelligence doit avoir un corps et avoir « conscience » de son corps. Elle doit pouvoir se déplacer et percevoir, autrement dit posséder des qualités sensori-motrices pour qu’il soit envisageable qu’elle puisse accéder à une dimension d’intelligence plus abstraite ou de culture générale. David Marr (1945-1980), chercheur, avait anticipé ce mouvement en faisant des recherches sur la vision. Il réfutait à la fois l’approche logicienne rigoureuse de J McCarthy et l’approche logique plus « brouillonne » de M. Minsky. Par la suite, durant les années 1990, de plus en plus de cognitivistes remirent en question l’approche logicienne de l’intelligence, remettant le corps au centre d’une éventuelle imitation de l’intelligence humaine. C’est ce que l’on a nommé en anglais l’embodiment que l’on pourrait traduire en français par « l’ancrage corporel. » ou qualifier plus judicieusement encore « d’ancrage spatio-temporel » L’ancrage spatio-temporel base nos sentiments, pensées et comportements sur nos situations dans l’espace, nos déplacements et pour cela il se fonde sur deux modes de fonctionnement. Le premier cherche à expliquer la manière dont les informations provenant de notre corps influencent notre cognition, c’est le processus « bottom-up », autrement dit, du bas vers le haut. Le second explore à l’inverse la manière dont notre cognition influence nos mouvements, c’est le processus « top-down », autrement dit du sommet vers le bas.

C’est aux environs de 1995 que les affaires ont repris, mais d’une manière assez paradoxale. On était parti, durant les années 50-60, d’un mouvement de recherche passionné ayant l’ambition de créer une intelligence artificielle équivalente à celle de l’humain. Cette ambition s’est révélée manifestement utopique, même si certains n’en démordent pas aujourd’hui encore. Des succès technologiques et des avancées importantes liées à la montée en puissance des machines et aux découvertes scientifiques multiples ont jalonné ces années. Mais après plusieurs douches écossaises, les milieux financiers et politiques étaient devenus pour le moins sceptiques vis-à-vis de ce domaine. Du coup certains chercheurs ont évité d’utiliser l’expression intelligence artificielle et on a assisté à un éclatement du domaine en plusieurs sous-ensembles. Mais c’est à ce moment que la récolte des recherches a été la plus fructueuses et que les nombreux domaines du numérique, que nous fréquentons chaque jour de plus en plus, utilisèrent une part sans cesse croissante de ce qu’il convient encore d’appeler l’intelligence artificielle.

On se souvient qu’en 1997, l’ordinateur « Deep blue » d’IBM a battu le champion du monde d’échecs Gary Kasparov. L’ordinateur Deep blue était dix millions de fois plus puissant que le premier ordinateur sur lequel a été mis en œuvre le premier jeu d’échec en 1951. En 2005, un robot a pu conduire seul de manière autonome et sans reconnaissance préalable pendant environ 200km dans le désert. En 2016, l’ordinateur nommé « Alpahgo » a battu l’un des meilleurs champions au jeu de go, jeu aux combinaisons possibles infiniment plus nombreuses que pour le jeu d’échec. La puissance logicienne et la rapidité de calcul de l’ordinateur étaient telles qu’elles ont écrasé la très brillante intuition stratégique d’un grand maitre humain dans ce domaine. Ces performances sont principalement des mises en pratique de découvertes de l’intelligence artificielle couplée à une puissance de mémoire et de calcul maintenant suffisante.

1_V0SRL66sEFQwVFLbUDZwHA.gif

Lee Seedol, meilleur joueur mondial de Go, lors de la partie contre Alphago

Je veux pour conclure insister sur l’importance grandissante, centrale et essentielle de l’utilisation des mathématiques. Au fil de l’évolution des recherches dans ce domaine, les outils mathématiques se sont de nettement sophistiqués. On a vu là l’émergence de systèmes qui acquièrent de plus en plus une cohérence et une interopérabilité indéniables : A l’aide des algorithmes, les mathématiques ont servi de liant à divers champs mathématiques (logique, probabilités, statistiques, analyse de données, calcul stochastique, etc.), mais aussi à de nombreuses applications venant de domaines très variés tels que l’économie, la neurologie, la psychologie cognitiviste ou même la théorie de l’évolution et les théories génétiques. Par exemple, les « algorithmes évolutionnistes » sont une famille d’algorithmes que l’on qualifie de « bio-inspirés », c’est-à-dire qui sont inspirés par la théorie de l’évolution car ils utilisent des processus aléatoires de sélection. Autre exemple, les « algorithmes génétiques » sont aussi bio-inspirés et sont un sous ensemble des algorithmes évolutionnistes. Ils utilisent la notion de sélection naturelle et les notions de gènes, de brassage génétique, de recombinaison et de mutations propres au domaine génétique. Ces opérations sont imitées par des « algorithmes génétiques » afin de faire évoluer les « populations de solutions » mathématiques de manière progressive vers les solutions recherchées. La sophistication mathématique de ces outils est impressionnante pour les néophytes que nous sommes pour la plupart. De manière générale le grand public qui utilise les diverses applications numériques n’a aucune idée de la diversité de ces constructions mathématiques complexes interagissant de plus en plus au sein de l’intelligence artificielle. Cela conforte des impressions fréquentes de dépossession de capacités et de dépassement par la technique qui viennent questionner la subjectivité individuelle déjà fragilisée par d’autres évolutions sociétales. On assiste ainsi à une mathématisation progressive de pans entiers de domaines rationnalisés et dans ces pans mathématisés bien spécifiques, on voit apparaître une efficience machinique bien plus rapide et efficace que l’efficience humaine grâce à une puissance de calcul prodigieuse couplée à des possibilités de mémorisation fantastique. On constate en même temps qu’il y a toujours une perte d’efficience par rapport à l’humain, une limite au-delà de laquelle la machine perd sa supériorité dans la rationalité, c’est-à-dire la limite de la subjectivité, liée à l’absence de conscience et conséquemment d’inconscient dans les machines. En écho à la notion effective de « sujet de l’inconscient » humain, la notion de sujet de l’inconscient machinique est une aberration qui vient bien pointer ce qui manquera toujours aux machines : Tout ce qui n’est pas mesurable échappe à nos machines or pas tout de notre intelligence est mesurable.

Mais l’intelligence artificielle est devenue une réalité incontournable à l’influence sans cesse grandissante. Une bonne part des algorithmes découverts en intelligence artificielle sont maintenant utilisés à grande échelle dans le secteur numérique et technologique, tels que l’analyse des données, la robotique industrielle et à visée interactive, la logistique, la reconnaissance visuelle et la reconnaissance vocale, de nombreuses applications financières et bancaires, les croisements de diagnostics médicaux, les principaux moteurs de recherche et réseaux sociaux, etc. L’intelligence artificielle ancrée dans le numérique soulève, au même titre que les recherches génétiques ou l’avenir écologique, de plus en plus de questions vis-à-vis du devenir de l’humain et du vivant. Nombre de chercheurs travaillant dans ces domaines sont pris de vertige : des pans entiers du fonctionnement instauré des sociétés et de l’économie vont être bouleversés à court terme par l’automatisation externe et quasi instantanée de nombreux processus et il semble impossible à ce jour de voir clairement où cela nous mènera.

Philippe Decan                              Nantes                         Janvier 2019

 

Notes :

(1) D’après l’article Wikipedia sur ce sujet : Cette méthode consiste à réduire autant que possible les perceptions sensorielles du sujet par le port d’un casque assourdissant pour le priver de l’audition, d’un bandeau ou de lunettes sur les yeux pour l’empêcher de voir et en privant celui-ci du toucher et de l’odorat, puis en l’isolant des contacts humains et des stimulations extérieures (sport, ordinateur…) par l’enfermement dans une pièce étroite. Les effets, constatables au bout de quelques jours, sont des hallucinations comparables à des prises de drogues et aboutissent à une régression mentale et un chaos existentiel insupportable.

(2) Donald Olding Hebb,“The Organization of Behavior : A Neuropsychological Theory”, Wiley, New York, 1949. Traduction personnelle d’après « The organisation of behaviour… », P.62

(3) Paru en France dans l’ouvrage « Naissance de la psychanalyse», Paris, PUF, 2009.

(4) Rosenblatt, « The perceptron: a probabilistic model for information storage and organization in the brain » (1958), repris dans J.A. Anderson et E. Rosenfeld, “Neurocomputing”. Foundations of Research, MIT Press (1958)

(5) D’après l’article Wikipedia sur R. Schank

 

 

Jacques Lacan : De la logique.

 

tumblr_o3c6vuLVIs1u8rtwro7_r1_540.gif

 

Très schématiquement, on peut dire qu’une tendance ancienne de la rationalité a cherché à instaurer des vérités indéniables susceptibles d’englober toute la connaissance, voir toute l’intelligence et même tout ce que l’on a longtemps appelé l’âme et que l’on nomme plus couramment maintenant l’esprit. On a vu que le domaine du formalisme logique en mathématiques a représenté l’acmé de ce mouvement et que les théorèmes de Gödel ont amené la preuve de l’impossibilité de la réalisation de ce rêve. Ce n’est pas pour autant que nombre d’individus, spécialement dans le champ de l’informatique, ont abandonné ce fol espoir. Un nombre important des principaux instigateurs des premiers temps de l’intelligence artificielle ont promis l’avènement d’une intelligence machinique aussi efficiente, voir même plus efficiente que l’intelligence humaine dans des délais qui n’ont clairement pas été réalisés. Encore de nos jours certains esprits brillants en ce domaine promettent à court terme une intelligence machinique supérieure à la nôtre. Ils s’appuient sur les fantastiques progrès technologiques en la matière pour étayer leurs affirmations.

Cet optimisme manifestement excessif de la période précédente a amené une critique fondamentale de la part de certains philosophes.  Dès 1959, le philosophe anglais John Randolph Lucas (1929-  ) écrivait un retentissant article intitulé « Esprits, machines et Gödel » dans lequel il affirmait l’inefficience des automates en comparaison des qualités différenciées des mathématiciens humains.

Plus explicite encore fut l’apport d’Hubert Dreyfus (1929-2017), professeur de philosophie américain, qui a remis en cause les principes fondamentaux des recherches sur l’intelligence artificielle de cette époque, en particulier dans un livre intitulé « Que peuvent faire les ordinateurs : critique de l’intelligence artificielle » paru pour la première fois en 1972. Mais dès 1964 il avait publié un article très sévère vis-à-vis d’A. Newell et H. Simon. Schématiquement, cet auteur s’est attaqué aux présupposés qui permirent à ces chercheurs et à bien d’autres dans le champ de l’intelligence artificielle d’affirmer que l’intelligence consiste seulement en un agencement de symboles suivant des règles de formalisme logique. Il repère quatre présupposés critiquables. Le premier est d’ordre « biologique » et consiste à considérer le cerveau comme analogue à du matériel informatique et l’esprit comme semblable à un logiciel. Le second consiste à considérer le cerveau comme une machine à calcul sophistiquée à l’image de l’utilisation des algorithmes en informatique. Pour que ce présupposé « psychologique » puisse être vrai, il faut selon cet auteur que deux autres présupposés soient vrais : le présupposé « épistémologique » qui considère que toute activité peut être formalisée mathématiquement en un système de règles et le présupposé « ontologique » qui considère que la réalité consiste en un ensemble de faits de base indépendants les uns des autres. Il faut ces deux derniers présupposés pour que les chercheurs en intelligence artificielle de l’époque puissent définir l’intelligence comme une application formelle de règles et concevoir les connaissances simplement comme des représentations internes de la réalité. S’appuyant sur ces quatre bases implicites mais fausses selon H. Dreyfus, les chercheurs en intelligence artificielle de l’époque pensent que la connaissance est la manipulation de symboles internes et que par ailleurs le comportement humain est globalement indépendant du contexte. C’est la psychologie « scientifique » à laquelle croient de nombreux psychologues cognitivistes et cette discipline doit donc pouvoir décrire les règles internes de l’esprit humain comme les lois de la physique le font pour le monde extérieur. Pour l’auteur, une psychologie ne peut au contraire pas être a-contextuelle… Cela ne veut pas dire que cet auteur réfute l’idée d’une possible intelligence artificielle, mais, s’inspirant de Martin Heidegger, il pense qu’il faudrait que ces outils imitant l’intelligence humaine possèdent un « être au monde » similaire à celui des êtres humains. Cela impliquerait qu’ils aient un corps, qu’ils vivent en société comparable à la nôtre et qu’ils puissent être pris dans une culture : vaste ambition !… (1)

Un autre philosophe américain, John Rogers Searle (1932-  ), qui a travaillé sur la philosophie du langage et de l’esprit, a lui aussi beaucoup critiqué l’approche « computationnelle » de l’esprit.  Pour le dire à nouveau très schématiquement, il part d’une analyse des fonctions du langage parlé considéré comme outil non seulement de description mais aussi de réalisation. Il en arrive à considérer la notion philosophique préétablie « d’intentionnalité », qui permet classiquement de poser une distinction entre l’esprit d’une part et les objets physiques d’autre part, une distinction entre l’esprit et les phénomènes naturels que la science étudie. J. Searle réfute quant à lui cette manière de voir. Il préfère définir l’intentionnalité comme ayant à la fois une assise biologique dans le cerveau et comme une expérience consciente subjective. Selon lui, il existe deux formes d’intentionnalité : une forme « intrinsèque » pour le « locuteur », qui doit se représenter à l’esprit, à lui-même, ce qu’il dit, et une forme « dérivée », le langage symbolique qui en est l’expression. C’est sur cette distinction qu’il va critiquer la conception numérique de l’esprit qui, selon lui, fait l’économie de l’intentionnalité intrinsèque. Autrement dit, pour les « computationnalistes », la reproduction artificielle d’un comportement langagier suffirait à produire de l’intentionnalité car celle-ci consisterait essentiellement dans la manipulation de symboles selon des règles syntaxiques exactement comme on peut le faire faire à un algorithme dans un programme informatique. Mais comme nous venons de l’écrire, pour J. Searle, l’intentionnalité provient toujours d’un sujet conscient qui comprend lui-même ce qu’il énonce, en faisant l’expérience subjective du contenu sémantique qu’il utilise, ce qui n’est pas le cas pour les machines. Il estime aussi que la subjectivité de la conscience est ontologiquement irréductible, ce qui n’empêche pas qu’elle puisse être cernée, décrite par le discours scientifique…

Comme on le voit, les philosophes de l’époque cherchèrent à défendre une spécificité subjective humaine en répondant aux démarches des scientifiques s’intéressant au computationnel sur le terrain de ces derniers. Ces critiques ont d’ailleurs laissé les informaticiens et les cognitivistes plutôt indifférents, voir méprisants à l’égard de leurs auteurs.

En France, c’est le psychiatre et psychanalyste Jacques Lacan (1901-1981) qui, à ma connaissance, fit à l’époque le plus d’écho à ces questions, justement parce qu’il était préoccupé à faire reconnaître la spécificité de la subjectivité inconsciente de l’humain et fondait l’espoir de structurer le statut du sujet sur des bases logiques indéniables. Le titre mis à son intervention de Janvier 1969 dans le cadre de son séminaire en atteste clairement : « Vers une pratique logicienne en psychanalyse. » Déjà dans le séminaire précédent, en décembre 1968, il avait évoqué la question en ces termes : « … dans des champs (arithmétique) les plus simples, la surprise est grande quand nous découvrons qu’il manque, par exemple, la complétude, c’est à savoir que l’on ne peut pas dire que quoi que ce soit qui s’y énonce doive être, ou bien démontré, ou bien démontré que non. (…) Et cela devient très singulier et très étrange dans certains cas, quand (…) une dimension distincte s’ouvre, qui s’appelle le non-décidable. ». (2)

 

lacan-1

Jacques Lacan psychiatre et psychanalyste

Mais en ce début d’année 1969, il décide de cerner plus précisément le domaine de la logique. Il s’est déjà penché sur le langage par le biais de la linguistique et il décide cette fois de poursuivre « cette recherche qui consiste à saisir des isomorphismes entre le statut du sujet et ce que développent les disciplines déjà constituées … au niveau d’une autre discipline … que j’appellerai la pratique logicienne. » (3)

Il constate d’abord, comme nous l’avons fait précédemment, « qu’après qu’il s’est passé quelque chose qui a décollé la logique de la tradition où elle était restée enfermée au long des siècles, le lieu où elle s’exerce présentement est le domaine mathématique. », mais « il n’est pas inconcevable qu’elle trouve à se porter ailleurs ».

« Quoi de plus tentant pour la logique que les mathématiques, où le discours démonstratif semblait assis sur une entière autonomie au regard de ce qui s’appelle expérience ? Il avait pu sembler, en effet, que ce discours ne tenait sa certitude que de lui-même, à savoir des exigences de cohérence qu’il s’imposait. » Pour le dire avec mes mots : oui, les mathématiques n’ont pas d’autre objet que la spéculation ordonnée sur le raisonnement, même si cet usage particulier de la raison peut être appliqué à des domaines du réel (mathématiques appliquées) ce qui autorisa, par exemple, Albert Einstein (1879-1955), à démontrer par spéculation théorique mathématique un certain nombre d’hypothèses dont l’expérience a depuis permis d’en vérifier un grand nombre. Et au sein des mathématiques, la logique est le mode de raisonnement le plus proche du raisonnement humain.

J. Lacan définit un peu plus loin le formalisme en mathématiques comme « la tentative (…) de fonctionner sans le sujet.» Au sein du domaine des mathématiques il n’y a pas « d’incidence quelconque de ce qui ailleurs se détache comme l’observateur. Il n’y a pas en mathématiques trace concevable de ce qui s’appelle erreur subjective (…) Ou les termes du discours sont exacts, irréfutables, ou ils ne le sont pas. Telle est du moins son exigence. Rien ne sera reçu qui ne s’impose comme tel. Reste tout de même qu’il y a le mathématicien. Formaliser ce discours consiste à s’assurer qu’il tient tout seul, même complètement évaporé le mathématicien. Ceci implique la construction d’un langage qui est très précisément ce que l’on appelle logique mathématique (…) La condition pour réaliser cette épreuve se présente sous une forme double qui peut paraître antinomique. Première condition : un langage sans équivoque…» La deuxième condition est que « ce langage doit être pure écriture » et « qu’il n’est dès lors rien (dans le domaine de la logique mathématique) qui ne se pose comme interprétation. ». Comparant cet état du discours de la logique aux discours en général, (qu’il nomme discours fondamental et que d’autres ont nommé avant lui discours naturel,) il énonce à l’inverse « qu’il est au contraire de la nature du discours fondamental, non seulement d’être équivoque, mais d’être essentiellement fait du glissement, sous tout discours, de la signification. »

Lacan invite alors son public à prendre connaissance des théorèmes de K. Gödel que nous avons déjà évoqués. « Les théorèmes de Gödel sont dits de limitation. » « La consistance d’un système (logique) veut dire que quand vous y énoncez une proposition, vous pouvez dire oui ou non, celle-ci est recevable, est un théorème du système, ou bien celle-ci ne l’est pas et c’est sa négation qui l’est (…) Ce résultat est obtenu par la voie d’une série de procédés sur lesquels il n’est pas porté de doutes, et qui s’appellent des démonstrations. Le progrès de la pratique logicienne a permis d’assurer des résultats inédits, mais seulement grâce à l’usage des procédés de formalisation.» Un peu plus loin, J. Lacan définit le domaine de la logique mathématique comme « seulement un champ fermé qu’une pratique isole dans ce qui est tout simplement le langage, le langage même sans lequel le discours mathématique ne serait proprement pas énonçable.» L’auteur insiste au passage sur le fait qu’il ne s’agit donc pas là d’un « métalangage », d’un langage au-dessus des autres ni d’un « langage formel. »

J. Lacan en revient au contenu des théorèmes de Gödel en ces termes : « Gödel met en évidence que la consistance supposée du système le plus sûr en apparence du système mathématique, le discours arithmétique, implique ce qui le limite, c’est à savoir l’incomplétude. Cela veut dire que (…) il apparaît quelque part une formule (…) à laquelle il ne pourra être répondu ni oui ni non (…) Premier temps, premier théorème. Deuxième temps, deuxième théorème : Non seulement le système arithmétique ne peut lui-même assurer sa consistance qu’à en constituer son incomplétude, mais dans l’hypothèse même fondée de sa consistance, il ne peut pas démontrer cette consistance à l’intérieur de lui-même.»

L’auteur s’intéresse finalement au discours du mathématicien J. von Neumann concernant les démonstrations de K. Gödel : « Que trouvons nous à l’expérience de cette logique mathématique, sinon justement ce résidu où se désigne la présence du sujet ? C’est du moins ce que semble impliquer un mathématicien, l’un des plus grands certes, von Neumann, à faire cette réflexion, un peu imprudente sans doute, que les limitations qui sont logiquement tenables ne sont que des résidus des mathématiques. (…) Il s’agit là de la construction d’une limite (…) Quelque chose se présente là qui a sa nécessité (…) et dont von Neumann nous dit en somme que c’est très bien, ça témoigne après tout du fait que les mathématiciens sont encore là pour quelque chose, ça leur donne un rôle à jouer. Autrement dit, c’est parce qu’il manque quelque chose au discours mathématique que va venir en jeu le désir du mathématicien. (…) le terme de résidu est impropre. (…) ce qui se révèle ici de manque révèle sans doute la présence du sujet, mais d’aucun autre sujet que celui qui a fait la coupure, celle qui sépare le dénommé métalangage d’un certain champ mathématique, qui est tout simplement son discours, d’un autre langage isolé, d’un langage d’artifice, du langage formel. »

Mais déjà trois ans auparavant, dans un séminaire intitulé « La science et la vérité », le même auteur avait repéré la problématique en ces termes : « la logique moderne est incontestablement la conséquence strictement déterminée d’une tentative de suturer le sujet de la science, et le dernier théorème de Gödel montre qu’elle y échoue, ce qui veut dire que le sujet en question reste le corrélat de la science, mais un corrélat antinomique puisque la science s’avère définie par la non issue de l’effort pour le suturer. » (4)

Les ordinateurs, mises en œuvre de la logique désaffectée, cela ne fonctionne donc que si on en limite clairement les processus dans un cadre prédéterminé. C’est plus qu’une suture ratée du sujet de la science à laquelle nous avons assisté là me semble-t-il, car ce reste renvoyant à l’incomplétude infinie de notre logique, de notre « raison pure », vient fondamentalement qualifier la différence indépassable entre l’homme et la machine : le rôle essentiel de l’affect qui fait de l’humain un être doué d’une intelligence intuitive, intelligence d’ailleurs toute aussi limitée que la raison pure enfin clairement isolée.

Philippe Decan                                 Nantes                                Janvier 2019

Notes :

(1) D’après : https://fr.wikipedia.org/wiki/Hubert_Dreyfus

(2) Séminaire « D’un Autre à l’autre », 1968-1969, P. 85

(3) 93 à 100 pour cette citation et celles qui suivent

(4) Dans « Ecrits », article « La science et la vérité », P. 861, qui est la transcription de la leçon d’ouverture du séminaire « L’objet de la psychanalyse » (1965-1966).

Genèse de l’intelligence artificielle

tumblr_oyqgtabuKL1qj88rjo1_540.gif

Du fait de la conjonction de l’évolution du capitalisme, puis de l’immigration de nombreux chercheurs vers les Etats-Unis à cause de la guerre fratricide entre européens, mais aussi de la concentration de la recherche sur l’effort de guerre, qui a entre autres abouti à la bombe atomique, la période qui va approximativement de la fin des années trente au milieu des années cinquante fut un temps d’importante effervescence intellectuelle et de réflexions transdisciplinaires multiples autour des questions d’intelligence humaine et machinique.

C’est notamment lors de séries de rencontres, colloques et conférences pluridisciplinaires qu’eut lieu cette émulation. Par exemple, aux Etats–Unis, les conférences Macy (du nom d’une fondation philanthropique) qui se tinrent régulièrement entre 1942 et 1953. C’est le neurologue Warren McCulloch (1898-1969) qui prit l’initiative de ces réunions. On lui doit d’avoir démontré que lorsqu’un neurone A est relié directement à un neurone B, il existe toujours une liaison, soit directe soit indirecte, allant également de B vers A. Ses recherches avaient laissé penser que le cerveau pouvait être considéré comme un réseau de neurones envoyant des signaux électriques de type « tout ou rien », dans une certaine mesure comparable aux réseaux électriques artificiels, donc transcriptibles en une série de 0 et de 1. Il affirma en conséquence que le réseau neuronal humain pouvait être situé dans la catégorie des modèles logiques. Les espoirs déçus sont décidément durs à admettre : il considéra les fonctions de l’esprit comme une fonction mathématique, un opérateur avec des entrées et des sorties, on sait depuis que cela n’est pas si simple, que le cerveau est beaucoup plus complexe que cela et qu’on est loin d’en connaître tous les ressorts de transmission. (1) Walter Pitts, spécialisé en psychologie cognitive, (1923-1969) et W. McCulloch ont écrit en 1943 un célèbre article intitulé « Un calculateur logique des idées immanentes dans l’activité nerveuse. » Ils ont imaginé (mais pas réalisé) des sortes de réseaux de neurones artificiels qui pourraient effectuer des opérations logiques. Cette piste de recherche aboutira ultérieurement à ce que l’on nomme les réseaux neuronaux.

Lors des conférences de Macy, la cybernétique du mathématicien Norbert Wiener (1894-1964) mit en évidence la notion essentielle de rétroaction. Ces réunions virent aussi l’émergence de la théorie de l’information du mathématicien Claude Shannon (1916-2001) et le développement du vaste champ des sciences cognitives. De nombreuses personnalités de différents courants participèrent à ces conférences : Gregory Bateson, anthropologue, psychologue et épistémologue (1904-1980), et Margaret Mead, anthropologue (1901-1978), le neurologue, hypnologue et psychanalyste Lawrence Kubie (1986-1973), le psychologue Kurt Lewin (1890-1947), le psychiatre Milton Erickson (1901-1980). Vinrent aussi Joseph von Neumann (1903-1957), entre autres physicien et mathématicien, sur la question des analogies entre animaux et machines, ainsi que le sociologue Paul Lazarsfeld (1901-1976) et le linguiste Roman Jakobson (1896-1982), et bien d’autres encore qui participèrent à ces échanges souvent vifs mais stimulants.

Dans la même veine, reflétant l’intense activité intellectuelle de l’époque autour de ces questions, on citera aussi le « Ratio club » qui fut créé en Grande Bretagne et vit se réunir autour de ces questions, de 1949 à 1958, des psychologues, des médecins, des mathématiciens et des ingénieurs dont A. Turing.

C’est ainsi que durant les années 1940-1950, des scientifiques de domaines aussi différents que les mathématiques, l’ingénierie, l’économie, la communication, les sciences politiques, la psychologie, la psychanalyse, la sociologie, l’anthropologie et d’autres avaient commencé à aborder l’éventualité de la création d’un cerveau artificiel.

Le domaine de la cybernétique visait à mettre en relation, à comparer les principes de fonctionnement régissant les êtres vivants évolués et les machines évoluées de l’époque. Norbert Wiener avait notamment publié en 1948 « Cybernetics, or control and communication in the animal and the machine » ; publié en France sous le titre : « La cybernétique : Information et régulation dans le vivant et la machine. » (2). Il souhaitait ainsi mettre en valeur une vision unifiée de domaines nouveaux tels que l’automatique, l’électronique, la théorie de l’information. Il fut l’un des précurseurs de ce que l’on nomme maintenant l’intelligence artificielle.

téléchargementwiener-blackboard

Warren McCullogh neurobiologiste et Norbert Wiener physicien.

En 1951, en utilisant un des tous premiers ordinateurs, Christopher Strachey, mathématicien et informaticien a conçu en Grande Bretagne un programme de jeu de dames. L’intelligence artificielle prendra une très grande importance dans les jeux informatisés qui deviendront même une sorte d’étalon pour mesurer l’avancée de cette efficience de l’intelligence anorganique.

En 1955, Allen Newell (1927-1992), chercheur en psychologie cognitive et en informatique, en association avec Herbert Simon (1916-2001), sociologue, prix Nobel d’économie qui fit aussi de nombreux apports en psychologie cognitive, et avec John Clifford Shaw (1922-1991), programmeur et chercheur, ont créé ce que l’on peut considérer comme le premier programme informatique conséquent en intelligence artificielle qu’ils ont nommé le « logic theorist », le « théoricien logique » et qui avait l’ambition de démontrer 38 des 52 premiers théorèmes des « Principia mathematica » de B. Russel et A. Whitehead (3). Dans la même veine, en 1959, ces trois auteurs développèrent le « General problem solver », qui visait, ni plus ni moins, à résoudre tous les problèmes rationnels, ce qui bien sûr ne fut pas le cas malgré une certaine efficience.

Pour ce qui est de l’intelligence artificielle proprement dite, tous les spécialistes semblent s’accorder pour en fixer la naissance lors d’un colloque qui s’est tenu durant l’été 1956, pendant six à huit semaines, au Dartmouth collège de Hanover aux Etats-Unis. L’organisateur, John McCarthy (1927-2011), alors professeur assistant en mathématiques de 29 ans, choisit les termes « intelligence artificielle » pour distinguer ce nouveau champ de la notion de cybernétique qui avait été précédemment développée par N. Wiener et de la théorie des automates développée par J. Von Neumann.

McCarthy, soutenu par quelques autres, proposa une réflexion collective afin de « poser les bases de l’hypothèse selon laquelle tous les aspects de l’apprentissage ou des autres domaines de l’intelligence pourraient être assez précisément décrits de manière à ce qu’une machine pourrait être élaborée afin de les réaliser. Des tentatives seraient faites pour trouver comment faire utiliser le langage aux machines, leur faire réaliser des abstractions et des concepts, résoudre des types de problèmes actuellement réservés aux humains et les améliorer» (4). Il s’agissait entre autres de discuter des ordinateurs, des processus du langage naturel, des réseaux de neurones, des théories de calcul, d’abstraction et de créativité.

En fait, ce colloque s’avéra plutôt un groupe de travail, quelques-uns ayant participé du début à la fin, certains étant intervenus seulement ponctuellement.  L’autre particularité de ce colloque fut que nombre des participants firent ensuite partie des acteurs principaux de l’intelligence artificielle durant les décennies qui suivirent. Parmi eux : Ray Solomonoff (1926-2009), chercheur en informatique à l’origine des premières approches d’apprentissage automatique probabiliste en intelligence artificielle, Marvin Minsky (1927-2016), spécialisé dans les sciences cognitives et l’intelligence artificielle mais aussi philosophe qui définit l’intelligence artificielle comme « construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique » et  qui,  dès 1951, co-construisit la première machine à réseau neuronal et publia de nombreux ouvrages importants,(5) et John McCarthy (1927-2011), mathématicien autodidacte précité, qui est aussi l’un des principaux pionniers de l’intelligence artificielle. Ce dernier co-conçut la technique du temps partagé qui permit à plusieurs utilisateurs d’employer simultanément le même ordinateur : une petite révolution ! Il créa aussi en 1958 le langage LISP qui fut très utilisé.

La série d’échanges de Dartmouth durant cet été 1956 s’est en définitive révélée un moment symbolique clé, même si quelque peu mythifié depuis, où l’intelligence artificielle a trouvé son nom, circonscrit son champ, élaboré ses premières réussites et trouvé ses acteurs importants. Le fait est qu’à partir de ce moment, les inventions et découvertes se sont multipliées à un rythme impressionnant, les ordinateurs étant de plus en plus capables de résoudre des problèmes auparavant réservés à la seule raison humaine, ce qui paraissait tout simplement inconcevable à la très grande majorité des populations quelques temps avant. Cette frénésie de découvertes amena nombre de chercheurs à faire preuve d’un optimisme excessif, comme prédire une machine aussi intelligente qu’un humain dans les vingt années qui allaient suivre.

téléchargement (1)Marvin-Minksy-PhD-B3 (2).png

John McCarthy et Marvin Minsky

Cet engouement fut assez fort pour persuader des structures gouvernementales, particulièrement en Grande Bretagne mais surtout aux Etats-Unis, d’allouer des crédits très conséquents à ces recherches, à des fins militaires et économiques. C’est ce que l’on a appelé l’âge d’or de l’intelligence artificielle, une période allant de 1956 à 1974. Aux Etats-Unis, c’est la DARPA (l’agence pour les projets de recherche avancée de défense), créée en 1958, ainsi que le NRC (conseil national de la recherche) qui ouvrirent les mannes financières. Les plus importantes découvertes, ayant permis l’émergence de l’Internet et de nombreuses applications essentielles de celui-ci, proviennent de ce canal de recherches. L’argent fut distribué avec peu de contrôle, les chercheurs furent autorisés durant cette période à poursuivre toutes les pistes qui leur semblaient intéressantes. Cela créa une atmosphère de liberté totale qui donna naissance à la culture hacker. Cependant, au fil du temps il est clairement apparu que les ambitions devaient être revues à la baisse et que certaines difficultés avaient été fortement sous estimées. C’est pourquoi une grande coupe dans ces budgets anglo-saxons destinés à l’informatique eut lieu en 1973. Ce fut ensuite le gouvernement japonais qui décida d’investir massivement dans l’informatique et l’intelligence artificielle, ce qui amena les anglo-saxons à investir à nouveau de crainte d’être dépassés. Aujourd’hui, les entreprises numériques qui investissent massivement dans l’intelligence artificielle sont les plus cotées de toutes les entreprises mondiales. Elles sont en tête des bourses anglo-saxonnes et ont un pouvoir toujours croissant dans le monde.

On peut schématiquement considérer que, concernant l’intelligence artificielle, il y a eu par le passé deux approches distinctes et parfois concurrentes : d’une part l’approche qui essaye de reproduire le raisonnement logique, sémantique, que nous avons évoqué précédemment, d’autre part l’approche qui essaye d’imiter les processus biologiques cérébraux en créant des réseaux de neurones artificiels. Ces deux approches se sont avérées à la longue complémentaires.

Reprenons d’une manière un peu plus détaillée : Les premiers programmes artificiels utilisaient très souvent le même algorithme de base qui consistait à procéder pas à pas vers la solution recherchée, en reculant à chaque impasse, comme dans un labyrinthe, c’est ce que l’on a appelé le raisonnement par tâtonnements. Mais on s’est vite rendu compte que, pour beaucoup de problèmes, le nombre de chemins possibles est énorme et que cela compliquait singulièrement l’affaire. Cet obstacle a été nommé l’explosion combinatoire et il s’est alors agi d’éliminer les chemins qui ne menaient très probablement pas à la solution recherchée, pour ne pas avoir à tout explorer et gagner ainsi beaucoup de temps.

Evidemment, permettre la communication en langage humain directement avec les ordinateurs a été dès le début un objectif majeur pour la recherche artificielle. Cet objectif s’est révélé beaucoup plus complexe que ce ne fut imaginé au début. En 1949, Warren Weaver (1894-1978), mathématicien, pionnier de la traduction automatique, publia son mémorandum sur ce sujet, même s’il fit à l’époque preuve d’un optimisme excessif, il entrevit toutes les possibilités de la traduction automatique, un des domaines importants en matière d’intelligence artificielle qui n’est pas encore entièrement résolu à ce jour.

La notion de réseau sémantique prit ensuite de l’importance. Un tel réseau est constitué d’une part de signifiants (exemples : chat, chien, mammifère, fourrure, mer, etc.) et d’autre part de liens (ou nœuds) entre les mots (exemples : possède, vit dans, etc.)

Face à l’ampleur de la tâche pour réaliser une intelligence artificielle, M. Minsky et Seymour Papert (1928-2016), mathématicien, psychologue et informaticien qui a inventé le langage Logo, ont proposé de se concentrer sur des mondes simplifiés appelés micro-mondes.  Ils ont par exemple conçu un « monde bloc », fait de formes géométriques simples posées sur un une surface plane (cubes, prismes triangulaires, etc.), ainsi qu’un bras robotique qui pouvait déplacer et empiler ces blocs. Un autre informaticien, Terry Winograd (1946- ) a alors conçu le programme « shrdlu » qui pouvait pour la première fois communiquer en anglais, un langage dit « naturel », avec des phrases simples et ainsi faire réaliser par les machines des opérations basiques sur ces blocs, comme empiler un volume triangulaire sur un cube puis le nommer clocher et faire construire ensuite un autre clocher par la machine. Un tel mode possible de communication en langage naturel puis de concrétisation de tâches fit naître beaucoup d’espoirs mais, comme très souvent dans ce domaine, généra de fortes désillusions quand il fallut s’attaquer à des mondes moins simples, un peu plus proches du réel.

Joseph Weizenbaum (1923-2008), informaticien, conçut aux alentours de 1965 un programme nommé Eliza qui simulait un psychothérapeute en imitant la méthode du psychologue humaniste Carl Rogers (1902-1987). L’idée principale était de faire reformuler par la machine la majorité des affirmations du patient en questions et de lui poser ces questions. Ainsi, une affirmation A peut recevoir en retour par Eliza la question « Pourquoi dites-vous qu’A ? ». Quelques liens permettent en outre de renvoyer l’interlocuteur à un sujet plus ouvert, par exemple en réaction aux signifiants : père, mère, fils ou fille, le programme peut écrire « Parlez-moi de votre famille. » Note d’humour du programmeur, quand Eliza répond « Je comprends », en réalité non seulement ce programme ne comprend rien, puisque la plupart du temps, il se contente simplement de formuler des phrases préétablies en y incluant des mots du patient, mais dans ce cas précis, il utilise cette expression quand il n’a pas trouvé autre chose pour relancer l’échange de manière plus adaptée… Il faudra attendre ce que l’on a nommé ultérieurement les agents conversationnels pour pouvoir donner des réponses plus efficientes en se basant sur des bases de données.

En vérité, Eliza est incapable de répondre vraiment.  On dit pourtant que pas mal de personnes se sont laissées berner par le programme. Depuis cette découverte, en informatique, on appelle « effet Eliza » la tendance courante à assimiler de manière inadaptée le comportement d’un ordinateur à celui d’un humain. Détail non négligeable, cet effet fonctionne même quand on sait que l’on a affaire à une machine programmée.  Il suffit donc de donner l’impression à certains que l’on s’intéresse à ce qu’ils expriment pour qu’ils poursuivent. Le concepteur du programme a écrit à ce sujet : « Je ne m’étais jamais rendu compte que (…) de si courtes interactions avec un programme informatique assez simple pouvaient induire des pensées délirantes chez des personnes pourtant normales. » (6) En réalité, il n’y avait rien de délirant là-dedans, l’effet Eliza vient seulement pointer la propension à parler de nombre d’individus quand on relance leur discours et je parierais bien que la plupart n’étaient probablement pas dupes mais préféraient jouer le jeu.

N’empêche, ils se laissaient entraîner. Pour les psychologues cognitivistes de l’époque, l’effet Eliza était le résultat d’une dissonance entre la conscience de l’utilisateur vis-à-vis des limites de la programmation et son comportement à l’égard des informations générées par le programme. Le programme Eliza parvenait donc en suivant ce raisonnement à générer une réponse émotionnelle chez les utilisateurs qui ont inconsciemment cru à tort que l’ordinateur était émotionnellement impliqué dans l’échange. Pour les tenants de l’approche psychodynamique, il me semble que cet effet vienne plus précisément pointer les aléas de l’affect, de l’énergie libidinale chez l’humain. L’effet Eliza est le pendant de l’attitude de la plupart des humains vis-à-vis des animaux de compagnie envers lesquels, par anthropomorphisme, ils projettent faussement des sentiments ne tenant pas compte de leurs instincts. Les animaux en question sont bien entendu, dans une certaine mesure, affectés en retour par ce comportement humain, plutôt dans le sens d’une inadaptation chronique à toute vie autonome et parfois jusqu’à une dégénérescence affligeante. Ce n’est pas le problème avec les machines. Mais cette capacité machinique à leurrer certains humains consentant, qui est aussi celle de s’adapter à ses modes de communication, d’échange et de ressenti a un grand avenir à n’en pas douter.

S’inspirant du programme Eliza, Kenneth Colby (1920-2001), psychiatre et chercheur en intelligence artificielle, créa en 1976 un nouveau programme appelé Doctor, mais à la différence du concepteur d’Eliza, il affirmait que son programme sans intentionnalité est un outil thérapeutique efficace, qu’il n’est donc pas indispensable d’avoir un humain pour faire de la psychothérapie. On assista clairement là à un déni de la spécificité de la subjectivité humaine.

Même si, malgré un financement en dents de scie, l’intelligence artificielle n’a cessé de progresser dans de multiples directions, elle a, durant les années soixante-dix, buté sur deux obstacles majeurs et n’a pu reprendre un essor considérable ensuite que parce qu’une part importante de ces problèmes a pu être solutionnée.   Ces deux principaux obstacles rencontrés à l’époque furent la puissance de calcul limitée et la trop petite capacité de mémoire des ordinateurs, ces deux pierres d’achoppement ne permettaient pas d’aller vers des applications moins simplistes et plus efficaces. Par exemple, les recherches sur le langage naturel informatisé étaient limitées à quelques dizaines de mots faute de mémoire suffisante. Heureusement, la prodigieuse croissance de la puissance informatique couplée à une extraordinaire miniaturisation des circuits permettra plus tard de dépasser cette limitation. Concernant la puissance d’exécution, prenons un exemple : l’imitation de la vision grâce aux ordinateurs. Le chercheur et futurologue Hans Moravec (1948- ) déplorait en 1976 que les ordinateurs les plus performants n’atteignaient guère une capacité de plus d’une centaine de MIPS (un MIPS égale un million d’instructions pas seconde), alors qu’il aurait fallu selon lui plus de mille MIPS pour égaler les capacités de la rétine humaine à détecter les mouvements et les formes en temps réel. H. Moravec sous estimait encore grandement la puissance nécessaire : depuis quelques années, on sait réaliser cette performance, mais elle nécessite environ cent fois plus de puissance que ce qu’il pensait, les applications de vision par ordinateur nécessitent jusqu’à un million de MIPS, soient un million de million d’instructions par seconde !

C’est encore H. Moravec qui, dans les années 80, pointa le paradoxe très important qui porte maintenant son nom et que l’on peut énoncer comme suit : le raisonnement logique complexe est beaucoup plus facile à simuler et développer par un programme numérique que les aptitudes sensorimotrices humaines, alors que chez l’humain c’est exactement le contraire. Par exemples reconnaître un visage ou une voix, ou reconnaître les émotions, l’attention ou la motivation d’autres sujets, est beaucoup plus facile pour nous que faire des mathématiques ou planifier une tâche nouvelle, à l’inverse des ordinateurs et robots actuels. M. Minsky expliqua cela par le fait que les aptitudes que nous maîtrisons parfaitement sont la plupart du temps exécutées inconsciemment, elles sont en quelque sorte automatisées et ne sont pas difficiles à nos yeux. Je ferai l’hypothèse que ces aptitudes sensorimotrices sont le fruit de la longue évolution de l’animal humain au fil des temps alors que les aptitudes hypothético-déductives sont le fruit de l’enseignement, en un mode de transmission beaucoup plus direct et globalement spécifique aux humains. Il est en tous cas apparu que des éléments fondamentaux pour pouvoir parler d’intelligence artificielle, tels que la vision ou la parole, nécessitaient une quantité énorme d’informations en provenance du monde réel. Cela exige, pour de tels programmes de reconnaissance nécessaire à l’interaction, une connaissance du monde au moins équivalente à celle d’un enfant d’environ sept ans, c’est-à-dire que cela exige une énorme quantité d’informations.  Dans les années 1970, cela était tout simplement impossible. Aujourd’hui, grâce aux extraordinaires quantités de données qui s’accumulent sans cesse et qui sont disponibles instantanément, on a pu, comme nous le verrons plus loin, en bonne part dépasser cet obstacle et la reconnaissance des visages par ordinateur est même devenue plus fiable que la reconnaissance humaine !

téléchargement (3)

Hans Moravec, chercheur et futurologue.

Revenons maintenant à la logique mathématique au carrefour de notre sujet : Concernant les algorithmes logiques complexes spécifiques aux ordinateurs, le mathématicien et informaticien Richard Karp (1935-  ) a identifié en 1972 une vingtaine de problèmes combinatoires très difficiles et a démontré qu’ils sont réductibles entre eux mais ont un temps d’exécution exponentiel, et qu’en conséquence on ne sait pas les résoudre vraiment. C’est devenu un des points de butée fondamental des mathématiques appliquées. Les informaticiens codeurs confrontés à ces problèmes utilisent depuis des algorithmes d’approximation pour trouver des solutions assez fiables mais pas tout à fait exactes. En clair, il s’agit, me semble-t-il, de l’introduction étonnante de « l’à peu près » dans le domaine de la complexité logique appliqué aux machines. Peut-être pourrait-on dire que c’est une forme de reconnaissance et de prise en compte de l’incomplétude de nos raisonnements. Pour les besoins du numérique mis en matière, le vrai devient le relativement vrai, relativisant ainsi définitivement le rapport logique humain au vrai et redonnant, paradoxalement, son importance première à la vérité imprégnée de sensorialité qui ouvre les portes à la reconnaissance de la croyance individuelle ou partagée, à la prise en compte de l’inconscient aussi.

Philippe Decan                                 Nantes                                     Janvier 2019

Notes :

(1) Il a approfondi la théorie des automates et réfléchi à l’élaboration d’automates « auto-régulés. » Les automates sont des objets mathématiques, très utilisés en informatique, qui permettent de modéliser un grand nombre de systèmes informatiques.

(2) Aux éditions du Seuil en 2014.

(3) Voir dans mon article précédent l’approche de B. Russel.

(4) Traduction personnelle d’un extrait du programme de ces rencontres

(5) http://www.larousse.fr/encyclopedie/article/LIntelligence_Artificielle/11011577 La machine fut nommée le SNARC : « Stochastic neural analog reinforcement calculator». Il a publié entre autres: « Perceptrons: An introduction to computational geometry », MIT Press, 1969, avec Seymour Papert ; « The society of mind », Ed. Simon et Schuster, 1987; « The emotion machine », Ed Simon et Schuster, 2007.)

(6) Joseph Weizenbaum, Computer power and human reason: from judgment to calculation, P. 7, W. H. Freeman,

 

 

 

 

 

Logique !

 

tumblr_pfrjqa20611qhwckoo1_540.gif

Pour que le vaste domaine que l’on nomme maintenant l’intelligence artificielle puisse voir le jour, il a fallu, condition nécessaire mais pas suffisante, que le domaine de la logique mathématique soit assez avancé. Cela s’est principalement fait à la fin du dix-neuvième siècle puis au vingtième siècle, grâce à de grands mathématiciens tous aussi passionnés de philosophie. Le premier fut George Boole (1815-1864) qui publia en 1854 un livre intitulé : « Une exploration des lois de la pensée sur lesquelles sont fondées les théories mathématiques de la logique et des probabilités. » Dans ce livre, il proposa une forme de raisonnement à la rencontre du symbolique et des mathématiques afin de traduire idées et concepts philosophiques en termes logiques. Il créa l’algèbre de Boole, algèbre qui n’utilise que deux valeurs : 0 et 1, ainsi que deux lois logiques internes : « et » et « ou », le tout sur la base de quelques propriétés fondamentales. L’algèbre de Boole est encore très utilisée.

Ce fut ensuite Georg Cantor (1845-1918) qui créa (entre autres) la théorie des ensembles à partir de 1874 et la développa jusqu’à un article de 1897 intitulé « Sur les fondements de la théorie des ensembles transfinis » (1). Pour faire trop simple, cette théorie des ensembles a permis d’ordonner la pensée logique au sujet des ensembles finis et infinis et a eu des conséquences philosophiques importantes au niveau de la formalisation du concept de l’infini.

Ce fut aussi Gottlob Frege (1848-1925) qui publia en 1879 un livre intitulé « Idéographie, un langage formulaire de la pensée pure construit d’après celui de l’arithmétique. »  Selon G. Frege, la pensée est étroitement liée au langage et le langage permet à l’attention de prendre du recul par rapport à la perception sensible. G. Frege considère d’autre part que les langues couramment parlées, les langues « ordinaires », ne sont pas assez rigoureuses pour refléter les lois objectives de la pensée et qu’elles subissent trop l’influence de la psychologie humaine, ce que les psychodynamiciens ne peuvent qu’approuver. Pour atteindre l’objectivité, il entreprend donc de créer une langue nouvelle basées sur les exigences de la logique. Dans ce but, il utilise l’écriture qui s’appuie sur des signes constants et qui permet l’élaboration d’une logique sans faille. Il s’emploie à construire un langage logique aussi rigoureux que possible. Dans un autre article, intitulé « Uber Sinn und Bedeutung » (1892), que l’on pourrait approximativement traduire « Sur le senti et la signification », il a approfondi la notion d’identité mathématique à travers la différence entre l’objet et les mots pour le dire.

C’est à la suite d’un autre ouvrage de G. Frege, « Les fondements de l’arithmétique » qu’un grand mathématicien et éminent philosophe, mais aussi courageux humaniste, Bertrand Russel (1872-1970), lui fit parvenir ce que l’on nomme depuis le paradoxe de Russel, qui vint pointer une contradiction dans les théories de G. Frege. Ce dernier en fut particulièrement affecté et écrivit dans le deuxième tome de son ouvrage : « Pour un écrivain scientifique, il est peu d’infortunes pires que de voir l’une des fondations de son travail s’effondrer alors que celui-ci s’achève. C’est dans cette situation inconfortable que m’a mis une lettre de M. Bertrand Russel, alors que le présent volume allait paraître. »

On peut formuler ainsi le paradoxe de Russel : « l’ensemble des ensembles n’appartenant pas à eux-mêmes appartient-il à lui-même ? Si on répond oui, alors, comme par définition les membres de cet ensemble n’appartiennent pas à eux-mêmes, il n’appartient pas à lui-même : contradiction. Mais si on répond non, alors il a la propriété requise pour appartenir à lui-même : contradiction à nouveau. On a donc une contradiction dans les deux cas, ce qui rend l’existence d’un tel ensemble paradoxal. » (3). Le paradoxe de Russel questionnait donc aussi la théorie des ensembles de Cantor. Ernst Zermelo (1871-1953) et Abraham Fraenkel (1891-1965) complétèrent par la suite les axiomes de la logique et permirent, semble-t-il, de dépasser cet obstacle.

Mais B. Russel aussi avait lui-aussi l’ambition de continuer à construire la logique mathématique sans faille, complète, tentée par G. Frege. C’est dans une œuvre co-écrite avec son ancien professeur, Alfred North Whitehead (1861-1947), intitulée « Principia mathématica » qu’ils tentèrent de réaliser ce projet. Le but de cet ouvrage était de décrire un ensemble d’axiomes et de règles d’inférence dans la logique symbolique à partir duquel toutes les vérités mathématiques auraient pu être prouvées. Ce livre est devenu une des principales références dans le domaine de la logique et il a largement contribué à la diffusion de cette dernière, indispensable pour l’élaboration du numérique.

Russel créa « l’atomisme logique» qu’il justifia ainsi : « La raison pour laquelle j’appelle ma théorie l’atomisme logique est que les atomes auxquels je veux parvenir en tant que résidus ultimes sont des atomes logiques et non pas des atomes physiques» (dans « philosophie de l’atomisme logique », 1918). D’Aristote à R. Descartes, on raisonnait en termes de jugements. La nouvelle logique mise en œuvre par B. Russel dans la lignée de G. Frege pose quant à elle la proposition atomique de base à la place du jugement. La logique combine et analyse ces propositions. Toute proposition de la logique est selon lui soit une proposition simple, une et inanalysable, soit une proposition complexe résultant d’une combinaison de propositions simples liées par certaines fonctions logiques. La proposition simple est nommée proposition atomique et la proposition complexe est nommée proposition moléculaire. Les propositions atomiques ne contiennent qu’un seul verbe et sont vraies ou fausses, par exemple : « Pierre est mortel ». Les propositions complexes sont liées par des mots qui ont une fonction logique, par exemple « et », « ou », ou encore « si… alors… » En logique mathématique, ces mots sont représentés par des symboles. Par exemple, le symbole « ≠ » signifie « différent de », et le symbole « ˄ » signifie « et », etc. Deux caractères spéciaux sont appelés quantificateurs : « ∀ » qui signifie « quel que soit » et « ∃ » qui signifie « il existe au moins un ».  En développant ce système on fait clairement un pont entre le raisonnement langagier et la logique symbolique mathématique, on peut traduire des écrits langagiers en propositions logiques complexes et en utilisant l’idée de l’algèbre de Boole qui consiste à n’utiliser que des 0 et des 1, on peut traduire ces propositions complexes en langage numérique.

téléchargement

Bertrand Russell

Un autre mathématicien de renom, David Hilbert (1862-1943) est particulièrement connu pour avoir proposé, lors d’un congrès international de mathématiques à Paris en 1900, une liste de problèmes fondamentaux qui se posaient à cette époque. Parmi ces problèmes il énonça la question fondamentale : « Le raisonnement mathématique peut-il être entièrement formalisé ? ». C’est ce qu’il croyait lui aussi, puisque toutes les mathématiques découlent d’un ensemble fini d’axiomes et on pouvait espérer démontrer que cet ensemble fut cohérent. En 1931, alors âgé de 25 ans, un autre mathématicien et philosophe, Kurt Gödel (1906-1978) énonça deux théorèmes, que l’on nomme « théorèmes d’incomplétude de Gödel » qui vinrent ruiner les espoirs d’une logique mathématique complète de D. Hilbert et de ses prédécesseurs : « (…) en démontrant que tout système axiomatique permettant de faire de l’arithmétique devait contenir des propositions qui ne pouvaient être démontrées ou réfutées en utilisant le système axiomatique en question. Si l’on décidait qu’une de ces propositions était un autre axiome, on aurait un nouveau système, mais qui contiendrait lui aussi des propositions dont la vérité ou la fausseté sont indécidables. (…) C’est souvent en ces termes que l’on parle « du » théorème d’incomplétude de Gödel, mais il s’agit en fait de son premier théorème d’incomplétude. Le second théorème, lui, affirme que dans un système axiomatique donné permettant de faire de l’arithmétique, la proposition concernant la non-contradiction de ce système (c’est-à-dire le fait qu’on ne pourra jamais en déduire deux propositions mathématiques contradictoires) est elle-même indécidable. D’autres énoncés indécidables ont été découverts depuis. (…) » (4). Comme on le voit, « Le principe du théorème d’incomplétude est simple. Gödel a essentiellement bâti « une formule qui énonce qu’elle n’est pas démontrable » dans un système formel donné. Si cette formule était démontrable, cela signifierait que l’on pourrait démontrer « qu’elle n’est pas démontrable », d’où la contradiction. Donc cette formule n’est pas démontrable. C’est bien ce qu’elle énonce, donc elle est valide. Il existe donc une formule valide non démontrable. » C’est moi qui souligne ce dernier point, cette dernière conséquence qui exprime clairement les limites de la raison pure, désaffectée (5).

A ce stade, nous devons faire confiance aux logiciens aguerris et accepter les énoncés clarifiés qui nous sont proposés… Il y a donc des propositions indécidables dans le domaine le plus pur et le plus abstrait de la raison humaine : les mathématiques. Pour les mathématiciens de l’époque ce fut une sorte de séisme : la complétude (premier théorème) et la cohérence (deuxième théorème) chères à D. Hilbert ne peuvent pas être démontrées à l’intérieur du système des mathématiques. Evidemment cela fait tomber du même coup l’espoir, remontant à plusieurs siècles, de nombreux philosophes puis de nombreux logiciens de faire passer toute la connaissance humaine dans un système logique complet et cohérent.

Kurt Gödel fut un être très particulier, cela mérite que l’on pose ici un bref regard sur sa vie et ses conceptions. Pierre Cassou-Noguès, philosophe et écrivain, lui a d’ailleurs consacré en 2007 un livre remarquable intitulé « Les démons de Gödel. Logique et folie. » (Seuil). K. Gödel semble avoir écrit ses théorèmes d’incomplétude peu après la mort de son père en 1929, puis avoir traversé une première dépression suite à l’assassinat en 1936 d’un de ses enseignants, Moritz Schlick, qui avait publié en 1910 un ouvrage intitulé « La nature de la vérité selon la logique moderne » et  dont le séminaire avait fait naître son intérêt pour la logique. En 1940, après avoir quitté l’Allemagne à cause de la montée du nazisme, il s’installe à Princeton et devient l’ami d’Albert Einstein (Physicien, 1879-1955). Il se consacre alors, et ce jusqu’à la fin de sa vie, à des questions philosophiques au carrefour de la raison et de la foi religieuse. K. Gödel est très croyant. Par ses théorèmes d’incomplétude et d’incohérence, il démontre que les mathématiques ne peuvent être unifiées et que quelque chose échappe à la logique : on est en droit depuis de concevoir que la rationalité ne se limite pas à la logique, qu’il y a une dimension « intuitive » que l’on ne peut négliger, la raison ne se réduit pas au calcul. Mais Kurt Gödel va buter sur ce point de la distinction entre logique et rationalité. Pour justifier de l’existence d’une part d’indécidable, d’indémontrable, poussant la logique à l’extrême, il fait l’hypothèse d’un univers idéel parallèle qui s’opposerait à l’univers réel perceptible.  En effet pour lui, soit « les propriétés mathématiques qui nous échappent ont une existence autonome », soit l’esprit humain lui-même est « une réalité indépendante du monde sensible. » (Livre de P. Cassou-Noguès précité, P. 121-123). Dans cette orientation, il fait l’hypothèse de l’existence d’un « organe de l’intuition ». Il en vient à croire que dans l’univers idéel parallèle qui s’opposerait à l’univers réel sensible, il y a des êtres immatériels, des « anges » et des « démons » : « Les idées sont-elles aux anges ce que la matière est pour nous ? » (Note de Kurt Gödel, d’après P. Cassou-Noguès, précité, P. 94).  Peu à peu il souffrit de troubles psychiques associés : « Convaincu que des fantômes habitent dans les forêts avoisinantes, et persuadé que l’on cherche à l’empoisonner, Gödel invente toutes sortes de régimes pour éviter de consommer une nourriture jugée suspecte. En outre, il a peur des petites choses et du « mauvais air ». Aussi passe-t-il son temps à hanter les magasins d’électroménager pour changer son réfrigérateur ou ses appareils de chauffage. Et de même, il se méfie des médecins au point, un jour, de refuser, malgré les injonctions d’Einstein et de Robert Oppenheimer, de soigner son ulcère de l’estomac. (…) il établit des corrélations extravagantes entre des événements, des lieux, des personnes, des structures. Tantôt il donne rendez-vous à une admiratrice dans la même salle de l’université où se trouve une femme qu’il veut séduire, et tantôt il définit la famille comme un atome dont l’homme serait le noyau et la femme l’électron diabolique ou télépathe. Une fois, conformément à l’idée que les univers sont tournants, il réserve à Paris plusieurs chambres d’hôtel afin de les habiter simultanément dans un temps à deux dimensions. Enfin, il refuse d’aller à l’enterrement de sa mère adorée pour ne pas risquer de prendre froid. » (6). Il meurt de cachexie en 1978, suite à des régimes et une anorexie dont la cause fut la croyance en l’existence d’un complot visant à l’empoisonner et qui l’a mené à ne plus peser qu’une trentaine de kilos en cette fin de vie. Tout comme K. Gödel, G. Cantor et G. Frege ont été aux prises à de grands moments de souffrance psychique en lien avec leur cheminement personnel mais aussi avec l’objet de leur étude. Le rapprochement entre cet objet d’étude, la logique de la raison désaffectée, et l’emballement des affects désarrimés est impressionnant.

images (3)

Kurt Gödel en compagnie de son ami Albert Einstein

Revenons à nos moutons numériques et prenons maintenant le temps de faire un petit point : D. Hilbert, avait défié ses collègues mathématiciens afin qu’ils répondissent à la question la plus fondamentale : « le raisonnement mathématique peut-il être entièrement formalisé ? » Répondre positivement à cette question par une démonstration irréfutable aurait amené à la possibilité d’une rationalisation complète, finie, aux conséquences philosophiques formidables. Malheureusement pour tous ces mathématiciens, ce fol espoir a été déçu : K. Gödel a clairement prouvé l’existence de limites indéniables à ce que la logique mathématique pouvait réaliser. Mais les choses n’en sont pas restées là et c’est ce qui a permis l’essor prodigieux du numérique.

Un autre mathématicien important, Alonzo Church (1903-1995), a consacré sa vie à la « logique symbolique ». Avec ses collaborateurs, il a en quelque sorte pris acte de la limitation si difficile à admettre de la logique mathématique, et par conséquence philosophique : En 1936, il a démontré l’existence d’un problème insoluble par algorithme, autrement dit d’un problème qui ne peut pas être résolu par ordinateur, par un calcul mécanisable. Avec ce que l’on a appelé « la thèse de Church-Turing » on a pourtant pu déduire qu’un appareil mécanique manipulant simplement des symboles 0 et 1 pouvait imiter, reproduire, mettre en œuvre une grande part des processus concevables de déduction mathématique, à l’aide d’algorithmes donc. Dès lors, une précieuse soudure entre la conception mécanique des ordinateurs d’A. Turing et la logique développée par la série d’éminents mathématiciens que nous venons d’évoquer s’est établie et des scientifiques ont commencé à croire sérieusement à l’élaboration de « machines pensantes » (7).

Philippe Decan                                    Nantes                                  Décembre 2018

 

Notes :

(1) Traduction J. Marotte dans « Mémoires de la société des sciences physiques et naturelles de Bordeaux», Tome 3, 5ème série, 1899.

(2) « Que la science justifie le recours à une idéographie», article publié en 1882 dans le « Zeitschrift für Philosophie und philosophische Kritik. »

(3) Source : article de Wikipédia sur ce sujet.

(4) http://www.futura-sciences.com/sciences/definitions/mathematiques-theoreme-incompletude-godel-13701 auteur : Laurent Sacco

(5) Extrait de l’article Wikipédia sur les théorèmes d’incomplétude de Gödel. Pour les initiés, l’énoncé texto des théorèmes de Gödel est le suivant : « Premier théorème d’incomplétude : Si T est une théorie du premier ordre cohérente, récursivement axiomatisable et contenant l’arithmétique de Robinson (PA−), alors T est incomplète, en ce sens qu’il existe une formule close G dans le langage de T telle qu’aucune des formules G et ¬G n’est conséquence des axiomes de T. Second théorème d’incomplétude : Si T est une théorie du premier ordre cohérente, récursivement axiomatisable et contenant l’arithmétique de Peano (PA), alors la formule «ConsT » (qui dans le langage de T exprime la cohérence de la théorie T) n’est pas une conséquence des axiomes de T. » D’après un article de Marc Tertre du 9 novembre 2012 à l’adresse : https://blogs.mediapart.fr/marc-tertre/blog/091112/goedel-le-genie-la-folie-la-vie

(6) http://colblog.blog.lemonde.fr/2007/10/05/la-folie-de-godel , extrait d’un article d’Elisabeth Roudinesco du 5/10/07, cité par Christian Colbeaux.

(7) on peut donner une définition intuitive assez simple et claire de la méthode effective de calcul par algorithme : l’algorithme consiste en un ensemble fini d’instructions simples et précises qui sont décrites avec un nombre limité de symboles ; l’algorithme doit toujours produire le résultat en un nombre fini d’étapes ; l’algorithme peut en principe être suivi par un humain avec seulement du papier et un crayon ; l’exécution de l’algorithme ne requiert pas d’intelligence de l’humain sauf celle qui est nécessaire pour comprendre et exécuter les instructions. (Dans : https://fr.wikipedia.org/wiki/Alonzo_Church )