Skip to content

Commit

Permalink
Fix broken SBV format for French captions
Browse files Browse the repository at this point in the history
  • Loading branch information
Atcold committed Dec 2, 2021
1 parent 9710460 commit 7546f4a
Show file tree
Hide file tree
Showing 20 changed files with 1,504 additions and 1,507 deletions.
86 changes: 43 additions & 43 deletions docs/fr/week01/lecture01.sbv

Large diffs are not rendered by default.

42 changes: 21 additions & 21 deletions docs/fr/week01/practicum01.sbv
Original file line number Diff line number Diff line change
Expand Up @@ -55,7 +55,7 @@ Donc, encore une fois, je suis ici pour éduquer, pour communiquer et je ne peux
0:01:40.080,0:01:43.660
Donc, si je pose une question et que vous comprenez ce que je dis,

0:01:43. 660,0:01:47.820
0:01:43.660,0:01:47.820
vous devriez hocher la tête parce que si vous êtes comme [cf. sa tête sur la vidéo]

0:01:48.760,0:01:52.350
Expand Down Expand Up @@ -122,7 +122,7 @@ vos performances dans le classement final. Nous considérons aussi,
comment est votre travail. Parfois les choses ne fonctionnent pas tout à fait, mais vous vous appliquez quand même.

0:03:24.069,0:03:28.358
C'est donc ce qui importe. Néanmoins, si vous gagnez le défi, vous pouvez
C'est donc ce qui importe. Néanmoins, si vous gagnez le défi, vous pouvez

0:03:29.030,0:03:31.569
avoir des cadeaux et quelque chose de nous.
Expand All @@ -134,7 +134,7 @@ Cela devrait être ça.
De plus, si vous avez une très bonne note, vous pouvez rejoindre le

0:03:40.340,0:03:44.919
laboratoire, peut-être avec Yann, et ainsi de suite le semestre prochain.
laboratoire, peut-être avec Yann, et ainsi de suite le semestre prochain.

0:03:45.799,0:03:53.229
Je dis juste qu’avoir une bonne note peut servir plus tard. D'accord, c'est une blague.
Expand All @@ -152,7 +152,7 @@ applications dont l'une était la classification.
Permettez-moi de vous donner un petit récapitulatif de ce qu'est la classification. Qu'est-ce que la classification ?

0:04:14.180,0:04:17.889
Imaginons que je prenne une photo de quelque chose. Disons que je prends
Imaginons que je prenne une photo de quelque chose. Disons que je prends

0:04:18.519,0:04:21.219
une photo d'un mégapixel,
Expand Down Expand Up @@ -254,7 +254,7 @@ Alors, allez-y. Ah, il n'y a pas d'internet. Connectons le Wi-Fi.
Je me connecte. Très bien, on y est presque.

0:06:41.460,0:06:52.040
Donc vous faites une recherche : tapez « linear algebra » [tapez en anglais et non pas en français si vous voulez trouver les ressources qu’Alfredo indique]
Donc vous faites une recherche : tapez « linear algebra » [tapez en anglais et non pas en français si vous voulez trouver les ressources qu’Alfredo indique]

0:06:52.500,0:06:56.840
Vous ne pouvez rien voir ici. Laisse-moi zoomer.
Expand Down Expand Up @@ -308,7 +308,7 @@ Rotation.
Je n'entends pas. Ok, la première multiplication matricielle est quel type de variation ? [Etudiant]

0:08:19.860,0:08:23.700
Oui une transformation linéaire. Ok, quelles sont les transformations linéaires ?
Oui une transformation linéaire. Ok, quelles sont les transformations linéaires ?

0:08:24.000,0:08:26.600
Un : rotation
Expand All @@ -329,7 +329,7 @@ Si le facteur déterminant est négatif, qu'est-ce que vous avez ?
[Alfredo se retourne et montre son dos]

0:08:53.380,0:08:57.420
Qu'est-ce que c'est ? [Etudiant] Oui une réflexion, donc trois. Il y en a une de plus.
Qu'est-ce que c'est ? [Etudiant] Oui une réflexion, donc trois. Il y en a une de plus.

0:09:00.560,0:09:02.560
C’est ?
Expand All @@ -350,7 +350,7 @@ Vous avez la réflexion. Quand vous avez la réflexion… [Etudiant]
Non, l'identité ne fait rien.

0:09:23.600,0:09:30.580
Une rotation signifie que la matrice est orthonormée, ok ? La deuxième transformation est la scalabilité.
Une rotation signifie que la matrice est orthonormée, ok ? La deuxième transformation est la scalabilité.

0:09:30.709,0:09:32.709
Quand l’avez-vous ?
Expand Down Expand Up @@ -425,7 +425,7 @@ Alors comment diagonaliser les matrices ? C'est la deuxième question. Vous pouv
Nous ouvrons une nouvelle page, nous allons à nouveau sur Twitter.

0:11:34.370,0:11:42.340
Nous allons en haut à droite. Vous devriez prendre des notes sur la façon de faire ce genre de choses.
Nous allons en haut à droite. Vous devriez prendre des notes sur la façon de faire ce genre de choses.

0:11:43.610,0:11:50.349
Vous faites « SVD (from :alfcnz) » Ok, cool. Si vous allez ici.
Expand Down Expand Up @@ -458,7 +458,7 @@ Oui, non, d'accord, c'est ennuyeux ?
Non, d'accord.

0:12:31.870,0:12:38.200
Donc vous prenez ça, vous abaissez avec la translation et ensuite vous zoomez avec une matrice. Peut-être diagonale avec
Donc vous prenez ça, vous abaissez avec la translation et ensuite vous zoomez avec une matrice. Peut-être diagonale avec

0:12:38.720,0:12:41.319
quelques valeurs singulières. Bien.
Expand Down Expand Up @@ -563,7 +563,7 @@ Très bien, voici donc mon réseau.
Cela revient à étirer le tissu spatial pour que tous les points qui appartiennent à la même couleur/classe

0:15:42.340,0:15:47.009
se retrouvent dans le même sous-espace de cette variété finale une fois
se retrouvent dans le même sous-espace de cette variété finale une fois

0:15:47.860,0:15:51.900
la convergence atteinte. Donc chaque fois que nous arrivons à la fin de cette animation,
Expand Down Expand Up @@ -665,7 +665,7 @@ Mon architecture de réseau est donc la suivante : j'ai mes deux neurones ici.
J’associe celui-ci sur un deux trois, etc. Donc ici, j'ai 100.

0:18:44.000,0:18:49.000
Ensuite, j'ai une certaine non-linéarité qui est juste la partie positive.
Ensuite, j'ai une certaine non-linéarité qui est juste la partie positive.

0:18:50.150,0:18:54.389
Puis à partir de celui-là, je fais quelque chose de
Expand Down Expand Up @@ -899,7 +899,7 @@ Est-ce que tout le monde ici connaît NumPy et l'a déjà utilisée ?
Secouez juste la tête, d'accord ?

0:26:11.129,0:26:18.618
Alors qui n'a pas la moindre idée de ce qu'est NumPy et comment cela fonctionne et qui n’a jamais utilisé jamais Python ?
Alors qui n'a pas la moindre idée de ce qu'est NumPy et comment cela fonctionne et qui n’a jamais utilisé jamais Python ?

0:26:18.619,0:26:20.619
Cela peut arriver, ne riez pas.
Expand Down Expand Up @@ -974,9 +974,9 @@ message promotionnel. Je ne suis pas payé. C'est gratuit.
Très bien. Alors, comment allons-nous commencer ?

0:28:19.750,0:28:21.750
Nous ouvrons le terminal.
Nous ouvrons le terminal.

0:28:23.380,0:28:28.800
0:28:23.380,0:28:28.800
Nous zoomons de manière à voir quelque. Donc nous pouvons aller par exemple à l'intérieur… oh cela va être différent.

0:28:29.920,0:28:32.700
Expand Down Expand Up @@ -1343,7 +1343,7 @@ Plus tard, je serai mathématicien. Ok, maintenant je suis mathématicien.
Visualiser les transformations linéaires. Ici je calcule la SVD, la décomposition en valeur singulière.

0:40:08.520,0:40:12.770
Encore une fois, il y a la vidéo que j'ai déjà signalée. Je vais multiplier
Encore une fois, il y a la vidéo que j'ai déjà signalée. Je vais multiplier

0:40:14.280,0:40:19.850
ce nuage de points par une matrice. Donc que fait la matrice à ces taches circulaires ?
Expand Down Expand Up @@ -1372,7 +1372,7 @@ C'est une jolie matrice ? Une matrice de rotation ? Une matrice ennuyeuse ? [Etu
0:41:00.089,0:41:06.409
Comment sont les valeurs singulières ? Regardez ici. Une valeur singulière est presque proche de 0.

0:41:06.410,0:41:08.410.
0:41:06.410,0:41:08.410
Voici donc notre matrice presque singulière

0:41:09.450,0:41:13.189
Expand Down Expand Up @@ -1499,7 +1499,7 @@ Un conteneur séquentiel que nous mettons à l'intérieur du module linéaire. N
Pourquoi ai-je retiré la translation ?

0:44:16.549,0:44:24.008
Car sinon cela sort de l'écran donc je garde au centre.
Car sinon cela sort de l'écran donc je garde au centre.

0:44:25.579,0:44:31.179
Prenons celui-là. Pour l'instant, je vais donc utiliser ce qui suit. J'utilise juste une matrice.
Expand All @@ -1514,7 +1514,7 @@ Je change l’échelle des deux éléments de la diagonale par la même valeur.
Et puis j'applique une fonction non linéaire. Donc ma fonction non linéaire va être la suivante. C'est une tangente hyperbolique.

0:44:48.920,0:44:58.740
Elle va de -1 à peu près une fois que vous passez -2,5 ici en bas,
Elle va de -1 à peu près une fois que vous passez -2,5 ici en bas,

0:45:00.849,0:45:03.629
à +1 à peu près une fois que vous passez +2,5.
Expand All @@ -1538,7 +1538,7 @@ Jusqu'à ce que vous atteigniez la région linéaire, qui est approximativement
Pourquoi est-ce que je mentionne ces nombres ? Car parfois, vous allez devoir mettre votre nez à l'intérieur.

0:45:29.100,0:45:33.320
Votre modèle n'est pas entraîné et vous voulez toujours déterminer l'ordre
Votre modèle n'est pas entraîné et vous voulez toujours déterminer l'ordre

0:45:33.660,0:45:39.080
de la magnitude. Les nombres approximatifs associés aux coudes de ces non-linéarités.
Expand Down Expand Up @@ -1592,7 +1592,7 @@ La boite va être de -1 à +1,
Je veux dire toutes les cases de -1 à +1.

0:47:17.360,0:47:20.920
Mais alors les points à l'intérieur vont être associés en fonction de la
Mais alors les points à l'intérieur vont être associés en fonction de la

0:47:20.920,0:47:25.539
cartographie dont nous avons déjà mentionné. Les choses de -2,5 à +2,5 deviennent linéairement
Expand Down
46 changes: 23 additions & 23 deletions docs/fr/week02/practicum02.sbv
Original file line number Diff line number Diff line change
Expand Up @@ -47,7 +47,7 @@ Que fait la multiplication matricielle ?
[Etudiant] Réflexion, rotation

0:01:18.880,0:01:23.519
mise à l’échelle et le shearing.
mise à l’échelle et le shearing.

0:01:23.750,0:01:28.880
Comment pouvez-vous faire la mise à l'échelle ? Aussi pourquoi les scalaires sont-ils appelés scalaires ?
Expand All @@ -62,7 +62,7 @@ ils « scalent ».
Vous pouvez toujours penser à une matrice. Vous pouvez juste la normaliser de telle sorte que vous ayez un déterminant à 1.

0:01:43.270,0:01:46.380
Vous avez alors un scalaire qui modifie
Vous avez alors un scalaire qui modifie

0:01:46.750,0:01:52.139
la taille. Je considère généralement les matrices comme une rotation.
Expand Down Expand Up @@ -233,7 +233,7 @@ de voir comment la limite de décision essaye de s'adapter lors de l’entraîne
Donc vous avez votre réseau où la première couche est en bas et la dernière couche en haut. Si vous

0:06:16.810,0:06:24.579
dessinez des réseaux dans l'autre sens, vous aurez un point en moins. L'entrée se fera donc… [Etudiant]
dessinez des réseaux dans l'autre sens, vous aurez un point en moins. L'entrée se fera donc… [Etudiant]

0:06:24.610,0:06:26.610
en bas. Pourquoi ?
Expand Down Expand Up @@ -272,7 +272,7 @@ du réseau ». Je me suis demandais quel est le sommet d'un réseau ? Je n'en av
Donc les réseaux sont donc dessinés de bas en haut, avec la première couche en bas où vous avez les données qui arrivent.

0:07:18.279,0:07:23.559
Les caractéristiques de niveau inférieur puis vous montez et vous avez le sommet.
Les caractéristiques de niveau inférieur puis vous montez et vous avez le sommet.

0:07:23.560,0:07:28.619
Si vous avez plusieurs sorties, c'est ce qu'on appelle un réseau à têtes multiples. Comme une hydre.
Expand Down Expand Up @@ -525,7 +525,7 @@ Une caractéristique de niveau inférieur fantastique. Quelle est la couleur du
0:14:01.880,0:14:04.929
Rose, je veux dire, oui, c'est exact. [rires]

0:14:05.870,0:14:11.440
0:14:05.870,0:14:11.440
Ensuite, nous obtenons une transformation affine qui est indiquée par la flèche. Puis nous entrons dans ce f vert

0:14:11.959,0:14:15.039
Expand Down Expand Up @@ -604,7 +604,7 @@ Oui, f et g sont des fonctions non linéaires arbitraires que vous pouvez utilis
[Etudiante]

0:16:20.309,0:16:26.299
Ce n'est qu'une couche cachée, ma couche de sortie sera mon truc bleu.
Ce n'est qu'une couche cachée, ma couche de sortie sera mon truc bleu.

0:16:26.730,0:16:28.399
Vous pouvez voir le ŷ au sommet,
Expand Down Expand Up @@ -679,7 +679,7 @@ En gros si c’est positif, vous prenez la valeur associée, si c'est négatif,
il y a d’autres noms que je ne sais pas.

0:18:14.140,0:18:25.479
Peu importe. J'aime « partie positive » car c’est les mathématiques. Ensuite, il y a une sigmoïde qui est 1/(1+ e⁻ˣ) quel que soit x.
Peu importe. J'aime « partie positive » car c’est les mathématiques. Ensuite, il y a une sigmoïde qui est 1/(1+ e⁻ˣ) quel que soit x.

0:18:25.810,0:18:28.859
La tangente hyperbolique qui n'est qu'une version redimensionnée de la sigmoïde.
Expand All @@ -694,7 +694,7 @@ Vous allez l'appeler ainsi
car c’est une version plus douce d'une argmax. Argmax donne que des 0

0:18:38.490,0:18:41.760
sauf un indice égal à 1, correspondant à
sauf un indice égal à 1, correspondant à

0:18:42.610,0:18:45.120
la valeur la plus élevée. Softmax
Expand Down Expand Up @@ -886,7 +886,7 @@ Vous pouvez penser à mon ŷ ici. Ce type est
une sorte de fonction ŷ de mon entrée x.

0:23:54.940,0:24:01.269
Donc x, le gars rose, est donné au réseau et celui me donne une sorte de
Donc x, le gars rose, est donné au réseau et celui me donne une sorte de

0:24:01.270,0:24:03.879
prédiction de sortie attendue.
Expand Down Expand Up @@ -934,13 +934,13 @@ Les choses bougeront un peu. Si vous allez dans un tout petit petit espace et es
tout bouge ensemble. Mais si vous allez dans cet espace intermédiaire où tout est si éloigné,

0:25:07.450,0:25:12.220
vous pouvez tout simplement faire bouger les choses. C'est beaucoup plus facile.
vous pouvez tout simplement faire bouger les choses. C'est beaucoup plus facile.

0:25:12.250,0:25:21.649
Donc, aller à une représentation dimensionnelle intermédiaire, c'est vraiment vraiment utile.

0:25:22.730,0:25:29.439
Potentiellement, vous pouvez avoir un très gros réseau. Vous avez une très grosse couche cachée d'entrée. Juste une sortie, la partie la plus cool est
Potentiellement, vous pouvez avoir un très gros réseau. Vous avez une très grosse couche cachée d'entrée. Juste une sortie, la partie la plus cool est

0:25:29.990,0:25:32.799
que si j'ai une centaine de neurones dans ma couche cachée, je
Expand All @@ -967,7 +967,7 @@ couches cachées de 10, ok ?
[Etudiant]

0:26:07.039,0:26:11.529
Dans le deuxième cas où vous avez une cascade de choses, vous aurez des
Dans le deuxième cas où vous avez une cascade de choses, vous aurez des

0:26:11.750,0:26:14.079
dépendances dans les données et vous devrez attendre les gars.
Expand All @@ -976,7 +976,7 @@ dépendances dans les données et vous devrez attendre les gars.
Il faut avoir fini avant de commencer la prochaine opération. Donc, par définition, plus vous empilez de couches, plus vous êtes lent.

0:26:21.140,0:26:27.640
Dans l'autre cas, vous devez disposer de beaucoup plus d'unités afin de
Dans l'autre cas, vous devez disposer de beaucoup plus d'unités afin de

0:26:28.669,0:26:33.459
d’être aussi bon que vous l'êtes en empilant quelques-unes de ces couches.
Expand Down Expand Up @@ -1012,7 +1012,7 @@ Très bien, alors, ok.
Dans ce cas, mon entrée vit dans un espace bidimensionnel.

0:27:08.900,0:27:12.939
Ma couche cachée vit dans un espace à cent dimensions
Ma couche cachée vit dans un espace à cent dimensions

0:27:13.130,0:27:16.780
et ma sortie vit dans un espace tridimensionnel.
Expand Down Expand Up @@ -1100,7 +1100,7 @@ Le y bleu est le « one hot encoding » et ŷ est la sortie du réseau,

0:29:34.760,0:29:41.349
la sortie du soft(arg)max. Donc ma perte par échantillon est – log de ce
soft(arg)max
soft(arg)max

0:29:44.630,0:29:46.839
à la correcte classe k.
Expand Down Expand Up @@ -1244,7 +1244,7 @@ Désolé répétez.
L’équation de ŷ

0:33:34.160,0:33:40.150
que vous ne pouvez pas voir, enfin très mal en gris, dit que ŷ est
que vous ne pouvez pas voir, enfin très mal en gris, dit que ŷ est

0:33:40.340,0:33:42.340
une fonction de votre entrée x.
Expand Down Expand Up @@ -1521,7 +1521,7 @@ Arrangement mirror, ok.
Vous pouvez voir ? Non :/

0:42:03.450,0:42:07.250
Nous allons donc passer en revue la classification en spirale.
Nous allons donc passer en revue la classification en spirale.

0:42:13.470,0:42:17.030
Donc… Oh vous pouvez voir l’écran, je n'ai pas besoin d'éteindre la lumière.
Expand All @@ -1545,7 +1545,7 @@ Ici, je viens de mettre les même que vous avez vu avant. Vous devriez être cap
Cela fait partie des devoirs.

0:42:58.410,0:43:03.920
Ok, je visualise les données et obtiens ça. Vous n’êtes pas surpris :/
Ok, je visualise les données et obtiens ça. Vous n’êtes pas surpris :/

0:43:04.560,0:43:07.909
Il s'agit donc des points de départs. Les points ont deux coordonnées
Expand Down Expand Up @@ -1620,10 +1620,10 @@ Mais quelle est la première valeur de ma perte ?
Aucune idée ?

0:45:39.210,0:45:42.230
Ah vous voyez mon écran, bon sang, je ne peux même pas…
Ah vous voyez mon écran, bon sang, je ne peux même pas…

0:45:43.019,0:45:48.019
Ok, trouvez quel est le premier numéro que vous obtenez ici et
Ok, trouvez quel est le premier numéro que vous obtenez ici et

0:45:49.920,0:45:52.490
pourquoi. Si vous ne trouvez pas, je vous le dirai la semaine prochaine.
Expand Down Expand Up @@ -1716,7 +1716,7 @@ Donc, pour entraîner un réseau, vous avez votre entrée X qui est tous mes poi
Je la donne au réseau, à l'intérieur du « model ».

0:48:24.559,0:48:31.149
Le modèle me donne y_pred. La définition du modèle est ce conteneur-là.
Le modèle me donne y_pred. La définition du modèle est ce conteneur-là.

0:48:32.660,0:48:35.980
Nous avons le modèle, nous lui donnons tous les x et nous obtenons y_pred.
Expand Down Expand Up @@ -1773,7 +1773,7 @@ Dérivée partielle de… [Etudiant]
la perte par rapport au

0:50:03.260,0:50:09.910
paramètre. La rétropropagation est juste la règle de la chaîne. Elle calcule toutes les dérivées partielles de votre perte finale,
paramètre. La rétropropagation est juste la règle de la chaîne. Elle calcule toutes les dérivées partielles de votre perte finale,

0:50:09.910,0:50:16.809
dans le cas ici la MSE, pour chacun des paramètres de votre modèle. Enfin, « step ».
Expand Down Expand Up @@ -1812,7 +1812,7 @@ J’entraîne cette chose.
Regardons la prédiction avant d’entraîner. Donc avant d’entraîner, vous allez obtenir ce genre de prédictions.

0:51:21.680,0:51:25.930
On tire en quelque sorte vers le zéro. Une sorte de ligne horizontale.
On tire en quelque sorte vers le zéro. Une sorte de ligne horizontale.

0:51:26.480,0:51:28.810
La ligne verte représente la variance.
Expand Down
Loading

0 comments on commit 7546f4a

Please sign in to comment.