-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathhdr-v5.tex
8126 lines (6639 loc) · 519 KB
/
hdr-v5.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%% LaTeX book template %%
%% Author: Amber Jain (http://amberj.devio.us/) %%
%% License: ISC license %%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%!TEX TS-program = pdfLaTeX
%!TEX encoding = utf-8
%!TEX spellcheck = fr-FR
\documentclass[12pt,twoside,openright]{book}
%nœud
%\usepackage{soul}
%\documentclass[a4paper,11pt]{book}
\usepackage[T1]{fontenc}
\usepackage[utf8]{inputenc}
\usepackage[francais]{babel}
\usepackage[usenames,dvipsnames]{color}
\usepackage{lmodern}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Source: http://en.wikibooks.org/wiki/LaTeX/Hyperlinks %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\usepackage{hyperref}
\usepackage{graphicx}
\usepackage{pdfpages}
\usepackage{amsmath}
\usepackage{amssymb}
\usepackage{a4}
\usepackage{indentfirst}
\usepackage{fancyhdr}
\usepackage{varioref}
\usepackage{makeidx}
%\usepackage{biblatex}
\usepackage{mslapa}
\usepackage[normalem]{ulem}
%\usepackage{apacite}
%\usepackage[longnamesfirst,nonamebreak]{natbib}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\pagestyle{fancy}
\addtolength{\headwidth}{\marginparsep}
\addtolength{\headwidth}{\marginparwidth}
\renewcommand{\chaptermark}[1]{\markboth{#1}{}}
\renewcommand{\sectionmark}[1]{\markright{\thesection\ #1}}
\fancyhf{}
\fancyhead[LE,RO]{\bfseries\thepage}
\fancyhead[LO]{\bfseries\rightmark}
\fancyhead[RE]{\bfseries\leftmark}
\fancypagestyle{plain}{
\fancyhead{} % get rid of headers
\renewcommand{\headrulewidth}{0pt} % and the line
}
%% Apalike hyphenation %%%
%\let\oldbibitem=\bibitem
%\renewcommand{\bibitem}[2][]{\oldbibitem[#1]{#2}\newline}
%%% Margins %%%
\voffset -1.04cm
\textheight 23cm
\hoffset -1in
\evensidemargin 2.5cm
\oddsidemargin 2.5cm
\textwidth 16cm
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%\textwidth16cm
%\textheight23cm
%\oddsidemargin0,5cm
%\evensidemargin0,5cm
%\topmargin-1cm
%\parskip0,5cm
%\parindent0cm
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% 'dedication' environment: To add a dedication paragraph at the start of book %
% Source: http://www.tug.org/pipermail/texhax/2010-June/015184.html %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\newenvironment{dedication}
{
\cleardoublepage
\thispagestyle{empty}
\vspace*{\stretch{1}}
\hfill\begin{minipage}[t]{0.66\textwidth}
\raggedright
}
{
\end{minipage}
\vspace*{\stretch{3}}
\clearpage
}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Chapter quote at the start of chapter %
% Source: http://tex.stackexchange.com/a/53380 %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\makeatletter
\renewcommand{\@chapapp}{}% Not necessary...
\newenvironment{chapquote}[2][2em]
{\setlength{\@tempdima}{#1}%
\def\chapquote@author{#2}%
\parshape 1 \@tempdima \dimexpr\textwidth-2\@tempdima\relax%
\itshape}
{\par\normalfont\hfill--\ \chapquote@author\hspace*{\@tempdima}\par\bigskip}
\makeatother
% Babel ``Sommaire'' à la place de ``table des matières''
\renewcommand{\contentsname}{Sommaire}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% First page of book which contains 'stuff' like: %
% - Book title, subtitle %
% - Book author name %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Book's title and subtitle
\title{\Huge \textbf{Apprentissage et contrôle dans les architectures neuronales} }
% Author
\author{\textsc{Emmanuel Daucé}}%\thanks{\url{www.example.com}}}
\begin{document}
\frontmatter
\maketitle
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Add a dedication paragraph to dedicate your book to someone %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%\begin{dedication}
%Dedicated to Calvin and Hobbes.
%\end{dedication}
%%%%%%%%%%%% Endyet daag koepf dokumentet %%%%%%%%%%%%%%%
% TODO : page de titre / remerciements
\section*{Résumé}
%Les études présentées dans ce rapport portent sur des algorithmes permettant de ``programmer'' des graphes constitués de nombreuses unités de calcul élémentaires.
%%Ces programmes sont vus comme des solutions de problèmes d'optimisation sous contraintes (voir section précédente).
%Nous nous plaçons dans une perspective de modélisation biologique~:
%les nœuds du graphe sont les neurones et les arêtes sont les axones transportant le signal d'un neurone à l'autre.
%Nous cherchons donc à identifier les algorithmes ``naturels'' permettant au cerveau
%de s'adapter à son environnement. La contrainte de plausibilité biologique impose de prendre en compte les observations et données expérimentales dans l'élaboration des modèles.
%Les ``neurosciences computationnelles'', qui
%se développent depuis une quarantaine d'années, visent à mieux comprendre la logique à l'œuvre au sein du cerveau, et du système
%nerveux en général.
%%selon la double perspective du traitement et\dfrac{numérateur}{dénominateur}
%%de la transformation des signaux sensoriels, d'une part, et du contrôle et de la coordination des actions, d'autre part.
%Il s'agit, au niveau microscopique, de mieux comprendre le ``code'' des signaux émis par les cellules nerveuses,
%mais également, au niveau macroscopique, de mieux comprendre les principes organisationnels
%permettant au cerveau de contrôler l'appareil sensoriel et moteur.
Ce mémoire d'Habilitation à Diriger les Recherches présente mes contributions à la recherche
en modélisation mathématique et informatique des dynamiques neuronales et de l'apprentissage.
Le but de ces travaux est de mieux comprendre la logique à l'œuvre au sein du système
nerveux des êtres vivants, afin d'améliorer la connaissance du cerveau et des pathologies nerveuses.
Il s'agit également de s'inspirer du cerveau pour repenser la manière de concevoir des objets
communicants et agissants (robots mobiles, interfaces vocales, jeux, etc.),
afin qu'ils interagissant de manière plus ``naturelle'' avec leur environnement.
Les modèles de réseaux de neurones étudiés sont des systèmes dynamiques de grande dimension,
définis par un graphe d'interactions entre des unités de calcul élémentaires.
Nous étudions les principes du calcul ``collectif''
dans ces architectures, tels que le ``temps de calcul'' corresponde au temps
de relaxation vers un \textit{attracteur}.
Les comportements d'ensemble sont alors interprétés comme des implémentations d'opérateurs plus simples.
Nous montrons en particulier que l'utilisation d'un graphe de connexions aléatoire permet,
en régime critique, de structurer l'espace des entrées sensorielles
en régions distinctes, selon un principe proche de l'{``auto-encodage''}.
L'apprentissage est abordé dans une
perspective neuro-réaliste, c'est-à-dire prenant en compte les principales contraintes biologiques,
comme le caractère local des changements synaptiques, le caractère récurrent
du graphe de connexions, ou encore le caractère
discret des signaux émis par les neurones.
Les tâches d'apprentissage étudiées impliquent la détection de
causalités temporelles au sein des signaux présentés en entrée du réseau, ou encore
la prise en compte des causalités circulaires entre le réseau et son environnement,
sur des tâches de contrôle moteur dites ``en boucle fermée''.
Nous montrons dans ce cadre la possibilité d'une reconnaissance de formes
reposant sur un principe de \textit{rétroaction positive} (ou résonance) entre le signal présenté en entrée
et un ``réservoir'' de formes apprises.
Dans le cadre du contrôle moteur, nous montrons également comment la plasticité de Hebb,
dans sa variante guidée, correspond à la recherche du maximum de vraisemblance dans un espace de couples
(perception, action), en l'absence de modèle de l'environnement.
Le travail de relecture et de compilation, occasionné par la rédaction de ce mémoire,
a également permis de mettre en lumière certaines difficultés fondamentales,
qui freinent les possibilités d'apprentissage de lois de contrôle dans un espace d'actions continu.
En particulier, si l'on souhaite construire des dispositifs artificiels capable d'apprendre des tâches
motrices de la même manière qu'ils apprennent à classifier des signaux et des images,
il faut établir des règles de contrôle \textit{ne nécessitant pas} de comparaison entre les grandeurs de l'espace environnant.
Nous proposons, dans ce cadre, de
s'inspirer du principe de ``contrôle de la position finale'', suggéré par les neurosciences,
par opposition au ``contrôle du déplacement'' utilisé en théorie du contrôle classique.
Différents projets sont proposés, visant à développer ces idées sur des modèles de l'activité
du cerveau à large échelle, ou encore dans le cadre des interfaces cerveau-machine.
\newpage
\section*{Abstract}
%Ce mémoire d'Habilitation à Diriger les Recherches présente mes contributions à la recherche
This ``Habilitation à Diriger les Recherches'' dissertation presents my research contributions to
%en modélisation mathématique et informatique des dynamiques neuronales et de l'apprentissage.
mathematics and computer science modelling of neuronal dynamics and learning.
%Le but de ces travaux est de mieux comprendre la logique à l'œuvre au sein du système
The aim of this work is to better understand the logic inside the nervous system
%nerveux des êtres vivants, afin d'améliorer la connaissance du cerveau et des pathologies nerveuses.
of the living beings, in order to improve the knowledge of the brain and nervous pathologies.
%Il s'agit également de s'inspirer du cerveau pour repenser la manière de concevoir des objets
Another aim is to take inspiration from the brain in order to reconsider the design of communicating tools and active
%communicants et agissants (robots mobiles, interfaces vocales, jeux, etc.),
devices (mobile robots, vocal interfaces, games, etc.)
%afin qu'ils interagissant de manière plus ``naturelle'' avec leur environnement.
for they interact in a more ``natural'' way with their environment.
%Les modèles de réseaux de neurones étudiés sont des systèmes dynamiques de grande dimension,
The neural network models addressed here are high dimensional dynamical systems,
%définis par un graphe d'interactions entre des unités de calcul élémentaires.
defined by the graph of couplings between elementary computational units.
%Nous étudions les principes du calcul ``collectif''
We study the principles of ``collective'' computation
%dans ces architectures, tels que le ``temps de calcul'' corresponde au temps
in such networks, so that the ``computing time'' corresponds to the relaxation time
%de relaxation vers un \textit{attracteur}.
toward an \textit{attractor}.
%Les comportements d'ensemble sont alors interprétés comme des implémentations d'opérateurs plus simples.
The collective behaviors are then interpreted as the implementation of simpler operations.
%Nous montrons en particulier que l'utilisation d'un graphe de connexions aléatoire permet,
We show in particular how random connection graphs allow,
%en régime critique, de structurer l'espace des entrées sensorielles
in the critical regime, to separate the sensory input space
%en régions distinctes, selon un principe proche de l'{``auto-encodage''}.
into distinct regions, in a way close to the ``auto-encoding'' principle.
%L'apprentissage est abordé dans une
Learning is addressed in a
%perspective neuro-réaliste, c'est-à-dire prenant en compte les principales contraintes biologiques,
neuro-realistic perspective, i.e. taking into account the main biological constraints,
%comme le caractère local des changements synaptiques, le caractère récurrent
like the locality of the synaptic changes, the recurrent organization
%du graphe de connexions, ou encore le caractère
of the graph, or the discreteness
%discret des signaux émis par les neurones.
of the neuronal signals.
%Les tâches d'apprentissage étudiées impliquent la détection de
The learning tasks we consider imply the detection of
%causalités temporelles au sein des signaux présentés en entrée du réseau, ou encore
temporal causalities within the input signals, or also
%la prise en compte des causalités circulaires entre le réseau et son environnement,
to take into account the circular causalities between the network and its environment,
%sur des tâches de contrôle moteur dites ``en boucle fermée''.
on ``closed loop'' motor control tasks.
%Nous montrons dans ce cadre la possibilité d'une reconnaissance de formes
We consider the possibility of a pattern recognition principle
%reposant sur un principe de \textit{rétroaction positive} (ou résonance) entre le signal présenté en entrée
based on the \textit{positive feedback} (or resonance) between the
%et un ``réservoir'' de formes apprises.
input signal and a ``reservoir'' of learned features.
%Dans le cadre du contrôle moteur, nous montrons également comment la plasticité de Hebb,
In the motor control framework, we also show how the Hebb plasticity,
%dans sa variante guidée, correspond à la recherche du maximum de vraisemblance dans un espace de couples
in its guided variant, corresponds to the search for the maximum likelihood in a space of
%(perception, action), en l'absence de modèle de l'environnement.
(perception, action) couples, in the absence of an environment model.
%Le travail de relecture et de compilation, occasionné par la rédaction de ce mémoire,
The proofreading work and papers compilation, needed by the writing of this dissertation,
%a également permis de mettre en lumière certaines difficultés fondamentales,
also allowed to shed light on some fundamental impediments
%qui freinent les possibilités d'apprentissage de lois de contrôle dans un espace d'actions continu.
in learning control laws in continuous action state spaces.
%En particulier, si l'on souhaite construire des dispositifs artificiels capable d'apprendre des tâches
In particular, if one wants to build artificial devices capable to learn motor tasks
%motrices de la même manière qu'ils apprennent à classifier des signaux et des images,
the same way they learn to classify signals and images,
%il faut établir des règles de contrôle \textit{ne nécessitant pas} de comparaison entre les grandeurs de l'espace environnant.
one needs to establish control rules that \textit{do not necessitate} comparisons between quantities
of the surrounding space.
%Nous proposons, dans ce cadre, de
We propose, in that context, to
%s'inspirer du principe de ``contrôle de la position finale'', suggéré par les neurosciences,
take inspiration from the ``end effector control'' principle, as suggested by neuroscience studies,
%par opposition au ``contrôle du déplacement'' utilisé en théorie du contrôle classique.
as opposed to the ``displacement control'' principle used in the classical control theory.
%Différents projets sont proposés, visant à développer ces idées sur des modèles de l'activité
Several projects are proposed, aiming at expanding some of those ideas into large-scale
%du cerveau à large échelle, ou encore dans le cadre des interfaces cerveau-machine.
brain activity models, or also for the design of brain-computer interfaces.
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Auto-generated table of contents, list of figures and list of tables %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\tableofcontents
%\listoffigures
%\listoftables
\mainmatter
%\section*{Remerciements}
%\begin{itemize}
%\item A special word of thanks goes to Professor Don Knuth\footnote{\url{http://www-cs-faculty.stanford.edu/~uno/}} (for \TeX{}) and Leslie Lamport\footnote{\url{http://www.lamport.org/}} (for \LaTeX{}).
%\item I'll also like to thank Gummi\footnote{\url{http://gummi.midnightcoding.org/}} developers and LaTeXila\footnote{\url{http://projects.gnome.org/latexila/}} development team for their awesome \LaTeX{} editors.
%\item I'm deeply indebted my parents, colleagues and friends for their support and encouragement.
%\end{itemize}
%\mbox{}\\
%\mbox{}\\
%\noindent Amber Jain \\
%\noindent \url{http://amberj.devio.us/}
%%%%%%%%%%%%%%%%
% NEW CHAPTER! %
%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%11
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%% ## %%%
%%% #### %%%
%%% ## %%%
%%% ## %%%
%%% ## %%%
%%% ## %%%
%%% ###### %%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\chapter{Introduction}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%\begin{chapquote}{Author's name, \textit{Source of this quote}}
%``This is a quote and I don't know who said this.''
%\end{chapquote}
% le modèle de Hopfield
% Qu'est-ce que le chaos?
% Qu'est-ce qu'un système apprenant
Le but de ce document est de fournir un aperçu détaillé des questions et des approches que j'ai
eu l'occasion d'aborder au cours des vingt dernières années, depuis mes premiers pas en recherche.
Ce document est organisé autour des différentes contributions et productions scientifiques auxquelles
j'ai participé, dans un ordre thématique.
Il fournit également un aperçu d'un certain nombre de questions
restées ouvertes, et pouvant faire l'objet de développements futurs.
Ces différentes contributions appartiennent à un champ de recherche assez large à l'intersection
des neurosciences et de l'informatique, généralement appelé ``\textit{neurosciences computationnelles}''.
Le terme computationnel fait référence à la notion de calcul. On peut donc également parler de neuro-calcul.
%bien que ce terme soit peu usité\footnote{
%sans doute pour ne pas le confondre avec le bio-calcul,
%qui concerne les opérations réalisées au niveau moléculaire, autrement dit
%le fonctionnement de la cellule en tant que machine.}.
\textit{Les neurosciences computationnelles
visent à identifier ce qui, dans l'activité des neurones, s'apparente à un calcul; à identifier
le type et la nature des opérations réalisées par le système nerveux}.
\section{Neurosciences computationnelles}
Si les principes de fonctionnement élémentaires du système nerveux central (neurones, synapses)
commencent à être bien connus,
le fonctionnement intégré du système dans son ensemble reste l'objet de nombreuses conjectures.
Les modèles mathématiques et les simulations informatiques permettent de proposer des hypothèses
de fonctionnement et/ou
de valider certaines hypothèses issues de l'observation.
Ainsi, l'étude du système nerveux, sous l'angle computationnel, a deux objectifs:
\begin{enumerate}
\item Explorer des mécanismes de calcul alternatifs
\item Comprendre le fonctionnement du cerveau
\end{enumerate}
% Les neurosciences computationnelles sont le domaine scientifique qui,
% \begin{itemize}
% \item d'une part, élabore des modèles de calcul
% inspirés par les hypothèses formulées dans le cadre des neurosciences, c'est-à-dire prend
% exemple sur des architectures ou des circuits neuronaux réels pour valider ou invalider des hypothèses
% liées aux types d'opérations produites par le système nerveux;
% \item d'autre part, interprète
% les données biologiques à partir de principes et de modèles issus des sciences de l'information.
% La question n'est pas nécessairement de
% produire le meilleur algorithme, ou de résoudre une nouvelle tâche, mais de produire des
% modèles permettant de mieux comprendre les opérations réalisées par le cerveau.
% \end{itemize}
%
\paragraph{Mécanismes de calcul alternatifs} Le premier objectif est
de s'inspirer du fonctionnement du système nerveux pour découvrir de nouveaux principes pour le calcul artificiel,
ou de nouvelles architectures, pour résoudre des problèmes qui résistent encore aux calculateurs actuels.
Mieux comprendre le cerveau, c'est donc potentiellement étendre le domaine de la science informatique,
étendre le type de données qu'elles sont capables de traiter (son, langage, images, ...),
augmenter leur capacité à contrôler leur environnement,
les rendre plus proches,
en terme de fonctionnement, des humains avec lesquels elles interagissent.
\paragraph{Fonctionnement du cerveau} Le deuxième objectif consiste
à utiliser les connaissances informatiques et mathématiques actuelles pour mieux comprendre le système nerveux.
Il s'agit d'une certaine façon d'identifier ce qui dans l'activité nerveuse s'apparente aux algorithmes
utilisés dans des tâches computationnelles variées, comme le contrôle, l'apprentissage, le traitement des images et des données;
voir si les solutions mises au point dans des contextes d'ingénierie proches de celui face auquel se trouve
le système nerveux ont des équivalents au sein de l'activité nerveuse (ou si, au contraire, la nature
utilise des principes différents). L'objectif est, à partir des observations, de mieux
identifier les rôles et les interactions à l'intérieur du système nerveux, et potentiellement
de mieux soigner les désordres et maladies neurologiques.
%{\color{Orange} Cette approche a environ une soixantaine d'années d'existence, {\bf !!!FLOU!!!et se confond parfois avec}
%les sciences cognitives
%(étude des opérations de haut niveau réalisées par le cerveau),
%les neurosciences fonctionnelles (étude des rôles des différentes structures anatomiques),
%et l'apprentissage automatique (programmes s'adaptant aux données).}
\subsection{Une approche pluridisciplinaire}
Les neurosciences computationnelles sont par définition pluridisciplinaires~:
\begin{itemize}
\item Elles reposent en premier lieu sur le
champ des \textit{neurosciences}, qui ont connu un développement considérable au cours des quarante dernières années,
avec l'apparition de nouvelles techniques de mesure permettant d'observer le cerveau en fonctionnement à
différentes échelles.
\item Elles reposent en second lieu sur la \textit{modélisation mathématique et informatique}, qui a également
connu un développement important lié à l'augmentation des capacités de calcul des ordinateurs, ainsi que de la
capacité à traiter des données massives grâce à l'apprentissage automatique (\textit{Machine
learning}).
\item Un dernier champ de recherche, celui de la \textit{robotique autonome} et du contrôle moteur, est également impliqué, dans la mesure où le
développement d'interfaces bioniques nécessite une meilleure connaissance des mécanismes de
contrôle à l’œuvre chez l'homme et l'animal.
\end{itemize}
\paragraph{Trois niveaux d'analyse}
Selon la typologie classique proposée par David Marr \shortcite{Marr82},
un modèle peut appartenir à différents niveaux de généralité, à savoir le niveau computationnel (la
logique),
le niveau algorithmique (encodage et opérations réalisées), et
la réalisation matérielle (le réseau de neurones ou ``substrat'').
Cette distinction en trois niveaux permet principalement de distinguer ce qui relève de la définition du problème~:
définition de la tâche, en fonction des contraintes physiques et de l'appareillage sensoriel et moteur, d'une part, et
d'autre part ce qui relève de la réalisation (algorithmique) de la tâche, c'est-à-dire principalement le circuit de
traitement. C'est, en terminologie informatique, la distinction entre
l'équation à résoudre, la brique logicielle qui la résout et le circuit logique qui l'implémente.
Marr postule une relative indépendance entre les différents niveaux de description, en établissant une
claire séparation entre le substrat neuronal, le circuit de traitement et l'espace de la tâche.
%XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
\paragraph{Approche ascendante (ou ``bottom-up'')}
La méthodologie ``bottom-up'' consiste à étudier les
\textit{conditions d'émergence} de fonctions de haut niveau à partir
des caractéristiques d'un réseau de neurones plongé dans un
environnement contraignant.
Les réseaux de neurones sont en effet capables de manifester des formes d'organisation spontanée~: comportement critique,
transitions entre différentes configurations d'activité, activité persistante et mémoire
à court terme (rémanence) etc.
L'ajout de mécanismes de plasticité synaptique vise à exploiter
cette richesse intrinsèque
pour que le réseau puisse acquérir des connaissances et des compétences nouvelles.
%{\color{Purple}
%A partir des constituants de la dynamique, de leurs propriétés (leur ``expressivité'') cette approche vise à
%établir les propriétés ou les fonctions qui peuvent être attendues de l'assemblage des constituants, autrement dit établir la
%``puissance'' d'un langage qui utiliserait
%l'activité des neurones comme syntaxe de base.
%}
\paragraph{Approche descendance (ou ``top-down'')}
La méthodologie ``top-down'' consiste à étudier les \textit{conditions de réalisation}
d'une certaine tâche par étapes descendantes, de la contrainte générale du corps engagé dans la tâche
à la réalisation matérielle du circuit qui la résout.
L'approche descendante consiste souvent à identifier les aspects non-triviaux
d'une tâche. L'étude des temps de réponse, des courbes d'apprentissage et des
taux d'erreur permet d'explorer les caractéristiques limites d'un comportement et de mieux appréhender
les contraintes posées par le système qui l'implémente physiquement.
Il peut s'agir des contraintes physiques (limites d'extension, de course, etc.) mais
également des limites provenant des caractéristiques physiques du réseau de neurones sous-jacent.
L'élaboration d'un modèle descriptif prenant en compte plusieurs échelles permet alors d'émettre des hypothèses
sur les sources (physiques ou logiques) des limitations comportementales observées.
\paragraph{Approche ``Multi-échelles''}
Il importe dans tous les cas de prendre en compte la différence de nature
(ou l'hétérogénéité) entre d'une part le milieu extérieur, caractérisé par des grandeurs extensives (des masses et
des articulations en déplacement, des changements continus)
et le milieu intérieur (milieu logiciel) caractérisé par des activités bornées, discrètes,
changeant rapidement et de manière abrupte.
Entre les deux, un niveau architectural (dit ``mésoscopique'') doit également être considéré, constitué de circuits imbriqués intégrant l'activité de larges portions du cerveau.
Chacun de ces niveaux de description est traditionnellement considéré de manière séparée,
et l'effort consistant à traduire un des niveaux de description dans un autre, effort ayant pris une place importante dans les neurosciences computationnelles, s'appelle l'approche ``multi-échelles'' \shortcite{WILSON89,Varela2001}.
Cette approche utilise le formalisme de la physique statistique pour décrire un ``milieu'' neuronal dont les variables d'état évoluent (ou peuvent être décrites)
selon différentes échelles spatiales et temporelles, chaque échelle de description étant explicative du comportement observé à l'échelle
supérieure (par des variables dites ``macroscopiques'').
%
%vise à établir des passerelles entre un substrat constitué d'éléments
%microscopique caractérisés par des processus rapides localisés et un environnement
%physique caractérisé par des processus macroscopiques lents et spatialement étendus.
%consiste à considérer un substrat
\subsection{Développement}
Les neurosciences computationnelles se sont fortement développées, et ont commencé à
s'organiser en tant que champ de recherche, à partir de la fin des années 90, avec le soutien de plusieurs programmes
nationaux et internationaux. On citera, parmi les plus actifs, le réseau
Bernstein pour les neurosciences computationnelles en Allemagne, développé depuis 2004,
le collectif INCF (International Neuroinformatics Coordination Facility) qui tente de coordonner les
nombreux projets de recherche de la discipline au niveau international (basé en Suède). Elles ont
bénéficié de nombreux soutiens financiers européens (NEST, Brain scales, Blue Brain project, ...)
qui se sont récemment concrétisés par l'attribution d'un financement 'Flagship' pour le projet ``Human Brain
Project'' qui regroupe les principaux acteurs des projets précédents.
On notera également l'initiative BRAIN (Brain Research through Advancing Innovative Neurotechnologies)
pilotée par la NIH et la NSF aux Etats-Unis.
Ce champ de recherche commence également à s'insérer dans les programmes de deuxième cycle, comme le montrent les
nombreux cours en ligne disponibles sur le Web
(voir par exemple ceux de Sébastien Seung au MIT, Andrew Ng à Stanford, Rajesh Rao à l'Université de Washington, etc.)
Au niveau des revues scientifiques, les neurosciences computationnelles ne bénéficient pas de la même
couverture académique que les disciplines plus anciennement implantées.
Les revues qui ont historiquement participé à son développement sont les revues traitant des
réseaux de neurones artificiels apparues à la fin des années 80 (Neural Networks, Neural
Computation, Neural Computing Letters, Biogical Cybernetics, etc.).
Plusieurs revues de neurosciences, comme Neuroimage ou J. Neurosciences, acceptent également des contributions du domaine.
Enfin, les revues de physique (Physica-D) hébergent également des articles traitant des neurosciences computationnelles.
Suite au développement du champ de recherche et de sa couverture relativement lacunaire par les revues scientifiques,
sont apparues des revues en ``Open Acces'' spécialement dédiées au domaine.
On notera en particulier PLOS-Computational Biology et Frontiers in Computational Neurosciences qui ont aidé à compenser
la relatif manque de visibilité du domaine.
Il existe enfin quelques conférences spécifiquement dédiées à ce champ de recherche, comme la conférence CNS (Computational
Neurosciences) et la conférence CoSyNe (Computational and Systems Neuroscience). Dans le domaine de la robotique bio-inspirée,
on peut citer la conférence SAB (Simulation of Adaptive Behavior) qui a eu un fort impact au début des années 2000 mais a
fini par disparaître faute d'audience.
\paragraph{Les neurosciences computationnelles en France}
%Voir : https://web.archive.org/web/20131020013653/http://neurocomp.fr/
Les neurosciences computationnelles ont émergé en France
dans le cadre des programmes de recherche interdisciplinaires
de sciences cognitives
montés dans les années 90 à l'intersection des sections 27 (Neurosciences) et 34 (Linguistique) du CNRS,
ainsi que différentes actions concertées incitatives (ACI ``cognitique'' en 1999)
du ministère de la Recherche.
Ces soutiens institutionnels ont permis la constitution
d'une communauté des Sciences Cognitives, avec l'apparition de
plusieurs instituts %(ISC, Lyon),
et de masters de sciences cognitives.
Les neurosciences computationnelles ont ensuite reçu un soutien
spécifique avec l'ACI ``Neurosciences intégratives et computationnelles'' en 2001,
achevée en 2007, qui a vu l'émergence de nouvelles questions dans le champ des neurosciences~:
notion de connectivité fonctionnelle, approche ``multi-échelles'', dynamiques de populations et
codage par populations \shortcite{Faugeras2007}...
La mise en place de l'agence nationale de la recherche en 2005 a rebattu les cartes, avec un système de financement
centré sur des projets non-thématiques.
En parallèle avec l'apparition des grands programmes internationaux mentionnés, la communauté %naissante a perduré et
s'est auto-organisée, avec des initiatives nationales
comme le groupe ``Neurocomp'' qui a tenté de fédérer la communauté française de neurosciences computationnelles
en organisant des événements scientifiques, et les conférences ``Ladislav Tauc'', sur des thématiques à
l'interface des neurosciences et des systèmes dynamiques.
%En parallèle, .
Si on constate à l'heure actuelle une baisse relative de soutien institutionnel
national\footnote{Disparition en 2011 de la commission interdisciplinaire du CNRS
``Cognition, langage, traitement de l’information, systèmes naturels et artificiels''
historiquement liée aux sciences cognitives.},
la communauté des neurosciences computationnelles reste relativement stable avec une
repésentation assez équilibrée entre des laboratoires de sciences de la vie, de
physique théorique, d'informatique et de robotique, mais continuent de bénéficier
globalement des budgets importants alloués aux neurosciences en général (cf. le projet ``Neurospin'')
et des appels d'offres internationaux.
%{\color{Gray}
%Role de l'INSERM?
%- Jirsa
%- Wendling à Rennes
%- institut de la vision
%- LENA (Salpetrière)
%
%CNRS :
%- Signal / image / modèles dynamiques (physique stat)
%- Masson-Perrinet
%- chez Thorpe
%- Alain Destexhe à l'UNIC
%
%Psycho expé et psychophysique :
%- Berthoz?
%- Dehaene
%
%Robotique :
%+ ISIR : Girard/Sigaud
%+ ETIS Cergy
%+ equipe biorobotique
%+ LIRMM
%
%Codage et vision:
%- institut de la vision
%- ENS : group for neural theory
%
%Dynamique :
%- INS : Jirsa
%- INRIA : Neuromathcomp; Hugues Berry; Frédéric Alexandre ; le reste de Cortex/Neurosys à Nancy (Axel Hutt)
%- Meunier / Hansel : Neurophysique, physiologie et pathologie
%
%+ labo de physique stat ENS (Nadal / Hakim) - réseaux complexes et systèmes cognitifs
%
%Les masters : pas de master de computational neuroscience en France.
%computational biology (Nice) - cogMaster (Paris)
%+ master de physique theorique à l'ENS ()
%
%INCF french node : UNIC (Fregnac)
%
%EITN (project?) - hebergé institut de la vision.
%
%projet Neurospin
%}
\subsection{Principales avancées}
Le champ de recherche s'organise autour de plusieurs pôles.
\begin{enumerate}
\item Le premier pôle concerne les simulations neuro-réalistes. Le but est de mieux comprendre le fonctionnement du neurone, et des interactions entre neurones. Ces modèles étudient en détail (i) la structure de la cellule neuronale, (ii) les échanges entre la cellule et son milieu, via les synapses et l'émission de potentiels d'action, et enfin (iii) la plasticité et les changements de ces échanges au cours du temps.
Les principales avancées dans ce cadre sont~:
\begin{itemize}
\item le modèle Hodgkin et Huxley \shortcite{HH52} et les modèles à compartiments \shortcite{Rall1959} qui servent encore à l'heure actuelle de fondement pour les modèles neuro-réalistes, aboutissant aux modèles détaillés de colonnes corticales constituées de dizaines de milliers de cellules \shortcite{Binzegger2004,Markram2006,Markram2012}.
\item L'étude de la plasticité synaptique \shortcite{Bli73,BIPOO01} et des mécanismes cellulaires associés \shortcite{Harris1984,Shouval2002,ODonnell2011,Graupner2012,Cui2015} conduit à mieux comprendre la sélectivité neuronale et la formation de champs récepteurs \shortcite{Bienenstock1982,Oja1982,VanRossum2000,song00,Billings2009}.
\end{itemize}
\item Le second pôle concerne l'étude des dynamiques de populations de neurones. Les neurones sont dans ce cadre des unités de traitement simplifiées (neurones à spikes, neurones stochastiques, neurones fréquentiels,...). Le but est de comprendre les interactions entre de grands groupes de neurones, et d'étudier les conditions d'émergence de certaines signatures d'activité (corrélations large échelle, couplages de phase, champs récepteurs, ...) observés en électrophysiologie chez le sujet sain et dans les pathologies nerveuses.
\begin{itemize}
\item Les neurones travaillent dans un régime dit ``sous-critique'' \shortcite{Beggs2004,Petermann2009,Rubinov2011,Haimovici2013}, encore appelé régime de ``haute conductance'' \shortcite{Shadlen1998,Destexhe2003}, qui explique à la fois le caractère très irrégulier de leur activité \shortcite{Dean1981,Softky1993,Van98}, et
leur tendance à se synchroniser à courte \shortcite{Gra89,Wang1996,brunel00,WangXJ2010} et longue distance \shortcite{Rod99,Palva2005,Busch2009}.
\item Les populations de neurones peuvent conserver une activité soutenue en l'absence de stimulation par des mécanismes de réverbération internes \shortcite{Heb49,Ama77B,Hop82,Fun89,Cam98,Bru01,Lansner2009}. %La synchronisation de phase tels qu'observée lors de la réalisation de certaines tâches \shortcite{Gra89} peut s'expliquer par un accrochage de fréquence entre différentes
% \item L'activité des ensembles de neurones est une activité multistable.
% \item La phase, les fréquences, modèles basés sur la phase, les theta neurons
% \item
\end{itemize}
\item Enfin, le troisième pôle concerne les modèles conceptuels, principes de traitement de l'information, qui expliquent la réception et la transmission de l'information nerveuse,
les codes neuronaux, les mécanismes de la mémoire et de l'apprentissage;
Les principales avancées dans ce cadre sont~:
\begin{itemize}
\item Les modèles du système visuel, inspirés des observations de Hubel et Wiesel \shortcite{HUBELWIESEL62}, mettent en évidence une organisation hiérarchique des couches de traitement visuelles, dont la formation est modélisée par des algorithmes d'auto-encodage non-supervisés \shortcite{Olshausen1997,Lee1999,Rao1999,Hinton2006,Lecun2015}.
\item Les principaux sous-systèmes du système nerveux central ont fait l'objet de modélisations spécifiques, comme le complexe hippocampe-cortex entorhinal pour la mémoire et la navigation \shortcite{OKe78,Treves1994,Skaggs1996,Buzsaki2013}, le cervelet pour le contrôle adaptatif \shortcite{Wolpert1998,Haruno2001,Dean2010} et le complexe cortex-ganglions de la base-thalamus pour la sélection de l'action \shortcite{Schultz1997,Gurney2001,Joel2002}.
\item Le principe du codage par population, inspiré par l'activité des régions prémotrices et motrices du cortex \shortcite{Georgopoulos1986} et les champs récepteurs à l'orientation de V1 \shortcite{Bonhoeffer1991}, permet d'interpréter l'activité irrégulière des populations de neurones comme un échantillonnage de grandeurs continues ``latentes'' \shortcite{Pouget1997,Pouget2002,Fiser2010,Stewart2011,Boerlin2013}.
\end{itemize}
\end{enumerate}
De nombreuses librairies et environnements de simulation ont par ailleurs été développés, de la cellule jusqu'aux populations de neurones à large échelle \shortcite{Eliasmith2004,BRETTE08,Furber2013,Leon2013}.
Enfin, le domaine connaît actuellement une forte tentative d'unification autour de principes issus de l'inférence statistique. Le cerveau construirait une interprétation de son environnement perceptif à l'aide d'un petit nombre de variables explicatives, ou ``facteurs causaux''. Le calcul probabiliste sur les distributions multimodales complexes issues des capteurs serait réalisé par échantillonnage \shortcite{Buesing2011}, via des mécanismes d'optimisation fondés sur la parcimonie (minimiser les causes) et la vraisemblance (maximiser la justesse)
\shortcite{Rao1999,Friston2009}. Même si ces principes apparaissent séduisants, avec des connexions intéressantes vers les algorithmes d'auto-encodage développés en apprentissage automatique \shortcite{Hinton2006}, leur réalisation matérielle dans le substrat neuronal reste à découvrir. Il manque également, même si des tentatives sont en cours \shortcite{Sutskever2009,Perrinet2014,Huang2015}, de nombreuses ``briques'' pour construire un modèle général de l'apprentissage des flux sensoriels et des transformations sensori-motrices, comme nous le verrons plus loin.
\section{Parcours personnel} \label{sec:bio}
\subsubsection{Les années 90}
%Les voies d'entrée dans cette branche de la recherche sont multiples, puisqu'on y trouve à la fois des mathématiciens,
%des informaticiens, des physiciens, des biologistes, des médecins et des psychologues.
%En ce qui me concerne,
J'ai suivi un parcours classique d'élève-ingénieur via le système des classes préparatoires et
des concours de Grandes Ecoles. J'ai intégré l'Ecole Nationale Supérieure d'Electronique, d'Electrotechnique,
d'Informatique, d'Hydraulique de Toulouse (ENSEEIHT),
dans la filière informatique, en Septembre 1992.
Ma spécialisation vers les sciences cognitives s'est tout d'abord faite avec la rencontre en début de troisième année avec Bernard
Doyon, médecin et chercheur à l'INSERM (Hôpital de Purpan) suite aux assises du Pôle de Recherche en Science
Cognitives de Toulouse (PRESCOT), tenues à Labège, les 23 et 24
septembre 1994. Bernard Doyon y présentait l'étude de comportements chaotiques
obtenus par simulation de réseaux de neurones, en faisant le parallèle avec le fonctionnement du cerveau
(en particulier avec l'étude des dimensions fractales des signaux électrophysiologiques pour différents états de veille
et de sommeil, développée à l'époque par l'équipe d'Agnès Babloyantz à Bruxelles \shortcite{Bab85}, ainsi que les travaux
de Walter Freeman \shortcite{ska87} sur la réponse aux stimuli olfactifs sur des grilles d'électrodes chez le lapin).
J'ai décidé de m'engager dans cette voie de recherche (simulation de réseaux de neurones
chaotiques) dans le cadre d'un stage du DEA de Representation de la Connaissance et Formalisation
du Raisonnement (RCFR) de l'Université Paul Sabatier,
en parallèle de ma troisième année d'études d'ingénieur.
Les cours étaient centrés sur la logique formelle, en particulier les grammaires génératives,
les systèmes experts, les modèles linguistiques et la théorie de jeux. Les réseaux de neurones et l'apprentissage y étaient peu
abordés.
Le stage était situé au sein du Département d'Etudes et de Recherche en Informatique (DERI),
dans un laboratoire de l'Office Nationale de Recherche d'Etudes et de Recherche Aérospoatiales (ONERA) rattaché à
l'Ecole Nationale Supérieure de l'Aéronautique et de l'espace (Sup'Aéro).
J'ai intégré le groupe de recherche animé par Manuel Samuelidès, professeur à Supaéro, et Bernard Doyon, chercheur
à l'INSERM, sur la thématique des réseaux de neurones récurrents à connectivité aléatoire.
Cette étude avait démarré
au début des années 90.
Les premières études sur ce type de modèle avaient été faites par l'équipe de Sompolinsky \shortcite{Som88}
de l'université de Jérusalem, dans le cadre des systèmes dynamiques continus.
L'analyse d'une variante à temps
discret avait été proposée par Bruno Cessac et Manuel Samuelidès \shortcite{Ces94}. Cette étude s'est
poursuivie pendant une dizaine d'années, pour s'achever par la démonstration de la propriété dite de ``chaos local''
dans le cas discret, par Moynot et Samuelides \shortcite{Moy00a}.
Lors de mon arrivée, deux étudiants venaient de passer leur thèse sur ce thème.
D'un côté, Bruno Cessac, diplômé en physique théorique de l'université Paul Sabatier, avait travaillé sur l'analyse en
champ moyen des réseaux de neurones récurrents aléatoires \shortcite{Ces95}. De l'autre, Mathias Quoy, diplômé de l'ENSEEIHT,
avait travaillé sur le comportement à taille finie (route vers le chaos) \shortcite{Doyon1993,CESSAC94}.
Mon rôle était alors principalement de poursuivre l'analyse des propriétés du réseau,
et en particulier d'approfondir la question de la plasticité synaptique
et de l'apprentissage.
Je connaissais alors peu de choses sur les systèmes dynamiques et le chaos, et mes connaissances en neurosciences se
limitaient à une culture grand public. Je me suis formé à ces deux domaines au cours de mon DEA, puis de ma thèse.
L'ambiance de travail était très stimulante et nous avons rapidement pu produire
de nouveaux résultats qui ont constitué mon rapport de fin d'études et de DEA \shortcite{Dau95}.
J'ai obtenu mon diplôme d'ingénieur informaticien en juin 1995 et mon diplôme de DEA en septembre 1995.
J'ai pu bénéficier d'une bourse ministérielle qui m'a permis de
poursuivre en thèse, toujours sous la direction de Bernard Doyon, au sein de l'équipe animée par Manuel
Samuelidès au DERI.
%Le sujet étudié en DEA, n'ayant pas été épuisé, est donc devenu mon sujet de thèse.
Mon travail de thèse portait sur l'étude d'un mécanisme de \textit{réduction} de la dynamique
par plasticité synaptique au sein de réseaux de neurones récurrents aléatoires.
Il s'agissait d'un sujet assez vaste, qui s'est progressivement orienté vers
l'apprentissage et la reconnaissance de séquences spatio-temporelles dans les réseaux de neurones récurrents
organisés en plusieurs couches de traitement.
Les résultats de la thèse ont donné lieu à de nombreuses publications et présentations en conférences.
La première série de résultats concerne l'étude du mécanisme d'apprentissage par ``route inverse''. J'ai
travaillé en particulier sur les comportements à taille finie
du modèle de réseau de neurones aléatoire.
Le premier article qui présente ces idées est celui de Neural Networks \shortcite{Dau98A}, étudiant la réaction (spontanée ou acquise) d'un réseau de neurones récurrent aléatoire
à des patrons (stimuli) également aléatoires (voir section \ref{sec:NN98} et annexe \ref{app:NN98}).
Un deuxième travail, portant sur des architectures
multi-couches, a été réalisé en collaboration avec Olivier Moynot, étudiant diplômé de l'ENS Cachan, qui a entamé
sa thèse sous la direction de Manuel Samuelidès un an après moi, et Olivier Pinaud, étudiant en DEA
de physique théorique, qui a effectué son stage à l'ONERA au printemps 1998 %(RNA) multi-populations
\shortcite{Dau99A,dauce01a} (voir section \ref{sec:balanced} et annexe \ref{app:NPL01}).
Nous avons, dans le cadre de réseaux équilibrés (constitués d'une population excitatrice et d'une population inhibitrice),
mis en évidence l'existence de deux paramètres de contrôle caractéristiques (l'amplification et l'homogénéité d'un faisceau
d'axones) jouant sur la nature des régimes développés (extinction, activité chaotique non spécifique et oscillations
synchronisées) \shortcite{dauce01a}.
La troisième série de résultats de la thèse et des publications associées \shortcite{Dau00,Dau02} porte sur une architecture
neuronale permettant d'implémenter un modèle de la perception des signaux spatio-temporels.
Ces résultats reposent sur une architecture de réseaux récurrents aléatoires à plusieurs couches (deux ou trois).
Le formalisme multi-couches est le même que celui utilisé dans les réseaux équilibrés (voir section \ref{sec:BioCyb02} et annexe \ref{app:BC02}).
Cette thèse m'a également permis d'assister à l'essor du champ des neurosciences computationnelles au cours des
années 1995-2000, avec les premiers neurones à impulsions \shortcite{Tho96,Lindblad1998}, l'émergence du concept de connectivité fonctionnelle large échelle \shortcite{Rod99},
l'application des modèles de champ neuronaux au contrôle moteur \shortcite{Schoner95}, les modèles de formation des champs récepteurs \shortcite{Olshausen1997}, etc.
Dans le même temps, le champ des réseaux de neurones artificiels se rapproche de plus en plus de l'apprentissage
statistique (qui deviendra le ``Machine Learning'') avec l'essor des machines à vecteurs supports (SVM) à la fin des
années 90 \shortcite{Vapnik1998}.
% 1999 - Moynot - Pinaud - Samuelides
\subsubsection{Couplages sensori-moteurs (2000-2009)}
Les années 90 ont également vu un certain renouveau
dans
le champ des sciences cognitives, avec, entre autres,
l'apparition des
concepts de cognition ``située'' \shortcite{Bro91} et
d'{``énaction''} \shortcite{Varela91}.
%, et la mise en avant
%du problème de l'assemblage (``binding problem'') \shortcite{Gra89}.
Ces nouvelles approches mettent en avant le rôle de l'expérimentation motrice dans l'acquisition de connaissances
(autrement dit lient la connaissance \---~le ``connaissable''~\--- aux compétences sensori-motrices de l'agent).
Une expérience de robotique mobile inspirée de ces idées a été effectuée dans le cadre d'un court séjour de fin de thèse (juillet 1999)
au sein de l'équipe de neurocybernetique dirigée par Philippe Gaussier au laboratoire ETIS (Cergy-Pontoise).
Cette équipe, qui met en œuvre l'approche ``située'' dans une perspective développementale et cognitive, a développé
plusieurs modèles d'apprentissage sensori-moteur reposant sur des cartes ``cognitives'' inspirées du fonctionnement de l'hippocampe
\shortcite{OKe78}.
L'idée était ici
d'étudier le comportement de l'architecture d'apprentissage
développée dans le cadre de ma thèse dans un contexte de
contrôle en boucle fermée.
L'apprentissage dans ce contexte revient à stabiliser par plasticité synaptique
certaines séquences d'interaction (certaines séquences d'associations sensori-motrices).
L'expérience, qui met en évidence un mécanisme spontané de couplage/découplage entre l'activité récurrente interne
et de la séquence motrice, a été conduite sur la plateforme de contrôle robotique PerAc \shortcite{Gaussier1995}, et publiée dans
\shortcite{Quo00,Dau00b,Quoy2001,Dau02} (voir section \ref{sec:alt}).
%Le point de départ des études auxquelles j'ai participé dans le cadre du contrôle moteur repose toujours sur les mêmes
%prémisses~: l'étude de mécanismes de plasticité permettant d'induire dans le substrat des dynamiques
%plus simples face aux signaux appris.
J'ai été recruté comme maître de conférences en informatique en septembre 2001 à l'Ecole Supérieure de Mécanique de Marseille (ESM2),
depuis devenue ``Ecole Centrale de Marseille'' suite à la fusion entre ESM2, l'ENSSPICAM (École Nationale Supérieure de
Synthèses, Procédés et Ingénierie Chimiques d'Aix-Marseille),
l'ENSP (Ecole Nationale Supérieure de Physique)
et l'ESIM (Ecole Supérieure d'Ingénieurs de Marseille).
Le profil de recherche était défini au sein du laboratoire ``Mouvement et Perception'', une unité mixte CNRS associée à la
faculté des Sciences du Sport de Luminy (Université de la Méditerrannée \--- Aix-Marseille II).
Ce laboratoire, devenu depuis ``Institut des Sciences du Mouvement'' regroupe de nombreuses thématiques allant de la ``biorobotique''
(N. Franceschini) aux sciences sociales, en passant par les neurosciences, la psychologie
expérimentale et la psychophysique. J'ai été intégré au sein de l'équipe animée alors par Reinoud Bootsma ``Information et Dynamique du Mouvement''.
Cette équipe étudiait alors principalement le lien entre des mesures psychophysiques et
les consignes motrices et sensorielles (de type ``Tâche de Fitts''), selon une approche dite ``écologique''
de la perception et de l'action \shortcite{Gib79}\footnote{L'approche
écologique fait reposer la commande motrice sur
l'existence de
motifs invariants dans la relation de l'agent à son environnement (comme le point de fuite)
servant de support à la l'actionnabilité de cet environnement.}.
Je suis resté au sein de ce laboratoire jusqu'en 2011. Tout en conservant ma thématique principale,
mes recherches se sont orientées vers la question du rôle des dynamiques intrinsèques
dans l'apprentissage moteur~:
\begin{itemize}
\item Etude sur le comportement critique des réseaux aléatoires de taille finie, dans le cadre d'une co-direction d'ouvrage \shortcite{Gui02} (voir section \ref{sec:criticalite}).
La perturbation d'un réseau récurrent par un signal externe à variations lentes produit
des transitions brusques, caractéristiques d'un comportement critique, support potentiel d'une catégorisation (discrète)
de l'environnement \shortcite{Beslon2002}.
\item Extension des modèles de réseaux aléatoires équilibrés, avec couplages aléatoires dépendants de la distance
permettant de développer des dynamiques méta-stables à ``foyers d'activité'' \shortcite{Dau04} (voir section \ref{sec:NatComp} et annexe \ref{app:NC04}). La combinaison de patrons de connexion à la fois topographiquement organisés et
équilibrés (autorisant une activité périodique
intrinsèque) permet d'implémenter une mémoire à court terme sur des neurones impulsionnels,
sans faire appel à des mécanismes cellulaires spécifiques.
\item Apprentissage d'un contrôle moteur en boucle fermée, modèles Hebbiens de l'apprentissage par renforcement \shortcite{Dau04b} (voir section \ref{sec:SAB04} et annexe \ref{app:SAB04})
\end{itemize}
%L'environnement pour approfondir [TODO].
% 2002-2007 - ACI 'DYNN'
\subsubsection{Neurones à impulsion (2004-2014)}
\paragraph{ACI ``Temps et Cerveau'' - projet ``DYNN'' (2002-2007)} Le travail sur les neurones à impulsion a été initié dans le cadre du programme de collaboration de l'ACI en neurosciences
intégratives et computationnelles ``Temps et cerveau'', projet ``DYNN''
(Dynamique des réseaux de neurones artificiels
biologiquement plausibles) \shortcite{Sam07}.
Une des questions au coeur de ce projet était la possibilité d'étendre l'analyse de champ moyen
des réseaux récurrents aléatoires au cas des neurones impulsionnels, ainsi bien sûr que d'exploiter les
possibilités dynamiques de ces modèles pour l'apprentissage et le contrôle.
Les changements principaux, par rapport aux modèles développés durant la thèse, sont donc :
\begin{itemize}
\item sortie discrète (potentiels d'action),
\item mise à jour par équation différentielle
(et non plus équation aux différences finies),
\item prise en compte explicite des délais et des constantes temporelles,
\item spécialisation des neurones (excitation/inhibition).
\end{itemize}
Mes contributions dans ce domaine portent sur l'étude des changements d'échelle temporelle
entre neurones fréquentiels et neurones à potentiels d'action, à la définition de
patrons de connectivité séparant clairement neurones excitateurs et neurones inhibiteurs,
et à la mise en place d'un formalisme architectural indépendant des modèles.
Ce projet collaboratif a abouti à la publication d'un numéro spécial dans la revue ``European Physical Journal \---
Special Topics'' \shortcite{ces07b}.
J'ai également
étudié dans ce cadre
les conditions de l'émergence d'oscillations synchronisées \textit{induites} par plasticité synaptique dans des réseaux équilibrés
constitués d'unités binaires (autrement dit neurones impulsionnels sans mémoire).
Les principaux résultats concernant l'application de la plasticité
sur ces réseaux sont détaillés dans l'article EPJ-ST de 2007 \shortcite{Dau07} (voir annexe \ref{app:EPJ07}).
\paragraph{Apprentissage dans les réseaux équilibrés}
L'extension à des modèles plus réalistes biologiquement a été réalisée, en co-direction avec Gilles Montagne, sur le projet de thèse de
Frédéric Henry, étudiant du master de sciences cognitives à Lyon.
Il a bénéficié d'une bourse ministérielle de l'école doctorale de sciences du mouvement (ED 463), entre septembre 2005 et juin 2008, puis a continué à travailler sur le sujet une année supplémentaire en tant qu'ATER à l'université de Lille
(2008-2009) sans toutefois parvenir à achever son projet de thèse, malgré des publications et résultats significatifs.
L'enjeu du passage aux réseaux de neurones à potentiels d'action était la prise en compte
plus fine des aspects temporels de l'activité neuronale, en considérant les délais de transmission (qui peuvent être
variés) et l'ordre de tir sur des échelles de temps de l'ordre de la milliseconde.
\begin{itemize}
\item
Une première étude, initiée dans le cadre de son stage de master
sous la supervision d'Hedi Soula, et
poursuivie et approfondie pendant sa première année
passée à Marseille,
exploite la dynamique d'un réseau récurrent
aléatoire constitué de neurones impulsionnels, et montre comment l'utilisation
alternée d'une rège Hebbienne et d'une règle anti-Hebbienne
permet de former une réponse
qui exploite la mémoire temporelle d'un substrat récurrent aléatoire
(approche de type ``réservoir''). Elle a fait l'objet de deux publications de conférence
et d'un article \shortcite{Henry06,Dau06,henry07} (voir section \ref{sec:discri} et annexe \ref{app:NCO07}).
\item
Deux articles
de conférences \shortcite{Hen08,Hen08B} étudient un protocole d'apprentissage où un réseau aléatoire est
soumis à des motifs statiques aléatoires (comme dans \shortcite{Dau98A}), montrant un caractère régulateur de la règle de Hebb sur la dynamique du réseau (voir section \ref{sec:STDP} et annexe \ref{app:NCP08}).
\item
Un patron de connectivité plus réaliste a été proposé dans une étude datée de 2009 \shortcite{Henry09},
avec séparation fonctionnelle des neurones excitateurs et inhibiteurs, et utilisation de neurones à
conductance \shortcite{Kepler1992}.
\end{itemize}
\subsubsection{Les projets MAPS et NOAT (2007-2010)}\label{sec:MAPS}
A travers deux projets ANR, j'ai pu aborder ces aspects de modélisation inspirés par des observations
électrophysiologiques et psycho-physiques
autour de l'étude des comportements d'orientation .
\paragraph{MAPS} J'ai contribué début 2007 à l’écriture d'un projet ANR blanc intitulé ``MAPS'' (Mapping, Adaptation, Plasticity and Spatial Computation)
qui a reçu un financement entre septembre 2007 et septembre 2010.
Cette recherche collaborative impliquait entre autres Frédéric Alexandre, chercheur en neurosciences computationnelles au LORIA (Nancy),
Hélène Paugam-Moisy, professeur à l'université de Lyon, et Laurent Goffart, chercheur en neurosciences à l'INCM (Marseille).
Ce projet portait sur la notion de codage topographique dans les modèles de réseaux
de neurones biologiquement inspirés.
Un des buts du projet ANR MAPS était de proposer une modélisation du comportement d'orientation visuelle, à travers
l'étude du système saccadique.
J'ai participé dans ce cadre à une étude
sur l'orientation visuelle à partir des données anatomiques et électrophysiologiques du tectum
et des neurones prémoteurs du tronc cérébral,
en collaboration avec Alain Guillaume, travaillant à l'Institut des Sciences du Mouvement,
et Anthony Mouraud, qui a effectué un séjour
post-doctoral en 2010 sous notre supervision \shortcite{Dauce2011} (voir section \ref{sec:orientation} et annexe \ref{app:CNS11B}).
Deux études sur le rôle du codage topographique dans l'apprentissage d'une cinématique inverse, en collaboration avec Alain Dutech du LORIA, ont également été réalisées dans ce cadre (voir section \ref{sec:topo-renf} et annexes \ref{app:ICANN09} et \ref{app:NCO10}).
\paragraph{NOAT}
J'ai participé au projet NOAT (``L'attention temporelle: modélisation neurale et substrats neuroanatomiques des processus attentionnels implicites et explicites'')
qui a été financé entre 2007 et 2010 dans le cadre d'un appel d'offre ANR ``Neuro'' datant de 2007 (ANR-07-NEURO-033-03).
Ce projet collaboratif portait sur des mécanismes attentionnels liés à un contexte temporellement structuré.
Dans le cadre du projet ANR NOAT, en collaboration avec Jennifer Coull (LNC, Marseille) et
Daniele Schön (INCM, Marseille), j'ai également travaillé sur des modèles génératifs du comportement
d'orientation temporelle,
en collaboration avec Gaurav Malhotra, chercheur post-doctorant en 2010-2011 sur cette question \shortcite{Malhotra2011} (voir section \ref{sec:orientation} et annexe \ref{app:CNS11A}).
%, certains aspects de la commande (déplacement relatif) semblant directement
%liés à la position du foyer d'activité à la surface du colliculus, et d'autres aspects (comme la vitesse de déplacement)
%semblant liés à la fréquence de décharge des neurones.
%{\color{Violet} (seule différence avec SAB : liens inhib-inhib plus faibles )}
% 2011-2015 INS - Mathieu - Viktor
\subsubsection{Modèles stochastiques de l'apprentissage}
\paragraph{Délégation INRIA Lille Nord-Europe(2008-2009)}
J'ai bénéficié entre septembre 2008 et aout 2009 d'une délégation INRIA au sein de l'équipe
SequeL (Sequential Learning) dirigée par Rémi Munos au sein du centre INRIA Lille-Nord Europe.
L'équipe de Rémi Munos travaille sur l'apprentissage statistique et plus particulièrement
sur le dilemne exploration/exploitation, exprimé sous sa forme la plus simple
comme un problème d'échantillonnage aléatoire de l'espace des choix (problème dit du ``bandit manchot'').
Ce séjour a été pour moi l'occasion de m'intéresser à la question de la stationnarité
des processus d'apprentissage dans le cadre du contrôle moteur.
\paragraph{Projet CO-ADAPT (2009-2014)}
L'idée générale de cette stratégie ``versatile'' été le point de départ de ma participation
à un travail de collaboration qui s'est concrétisé
sous la forme d'un projet ANR ``Défis'', portant sur l'application de stratégies adaptatives dans le
cadre des interfaces cerveau-ordinateur (projet CO-ADAPT - 2010-2014). Ce projet, porté par Maureen Clerc
de l'INRIA Sophia-Antipolis, impliquait des expérimentateurs et des théoriciens, entre autres
Rémi Munos, Boris Burle (LNC, Marseille), Jérémie Mattout (CRNL, Lyon) et Bruno Torresani (LATP, Marseille).