Skip to content

Commit

Permalink
[JA] review and modify week01, week02, week06, week07, week08, week09…
Browse files Browse the repository at this point in the history
…, week10, week11, week12, week13, week14, index.md and README-JA.md & some modifications & irrelevant files (#731)

* add week07 drafts

* japanese translation week11

* add week07 & week11

* add week11 & week14

* add week09

* add week03

* review and modify week03

* [VI] Translation of README.md, index.md, 01.md (#579)

* index.md

* README-VI.md

* Update README-VI.md

* Update README-VI.md

* Update README-VI.md

* Update README-VI.md

* Update README-VI.md

* Update README-VI.md

* Update README-VI.md

* Update README-VI.md

* Update index.md

* Create Lecture01.md

* Rename Lecture01.md to Lecture01.sbv

* Create Slide01.md

* Update and rename Slide01.md to 01.md

* Update index.md

* Create Lecture01.sbv

* Create 01.md

* Delete 01.md

* Delete Lecture01.sbv

* Update 01.md

* Update index.md

* Update README-VI.md

* Update and rename 01.md to ch01.md

* Update README-VI.md

* Update index.md

* Update index.md

* Update README-VI.md

* Update README-VI.md

* Update README-VI.md

* Update and rename ch01.md to 01.md

* Update index.md

* Update README-VI.md

* Update README-VI.md

* Update README-VI.md

* Update index.md

* Update index.md

* Update 01.md

* Update index.md

* Update index.md

* Create 01-1.md

* Update 01-1.md

* Update 01-1.md

* Update 01-1.md

* Update 01-1.md

* Update index.md

* Update index.md

* Update 01-1.md

* Update 01-1.md

* Update 01.md

* Update index.md

* Update 01-1.md

* Update 01-1.md

* Update 01-1.md

* Add Vietnamese flag

* All-caps title

* Rename docs/vi/week01/01.md to docs/vi/Tuần 01/01.md

* Update 01.md

* Rename docs/vi/week01/01-1.md to docs/vi/Tuần 01/01-1.md

* Rename docs/vi/week01/Lecture01.sbv to docs/vi/Tuần 01/Lecture01.sbv

* Update index.md

* Update index.md

* Update _config.yml

* Update 01-1.md

* Update 01-1.md

* Create 01-2.md

* Update 01-2.md

* Update 01-2.md

* Rename docs/vi/Tuần 01/01.md to docs/vi/Week01/01.md

* Rename docs/vi/Tuần 01/01-1.md to docs/vi/Week01/01-1.md

* Rename docs/vi/Tuần 01/01-2.md to docs/vi/Week01/01-2.md

* Rename docs/vi/Tuần 01/Lecture01.sbv to docs/vi/Week01/Lecture01.sbv

* Create 01-3.md

* Update 01-3.md

* Update 01-3.md

* Update 01-3.md

* Update 01-3.md

* Update 01-3.md

* Create practicum01.sbv

* Rename Lecture01.sbv to lecture01.sbv

* Delete lecture01.sbv

* Delete practicum01.sbv

* Update index.md

* Update index.md

* Update index.md

* Update index.md

* Update index.md

* Update index.md

* Update index.md

Co-authored-by: Alfredo Canziani <[email protected]>

* I had added Vietnam Translating Contents into README.md (#695)

* Update README.md

* Update README.md

* Update README-AR.md

* Update README-ES.md

* Update README-FA.md

* Update README-FR.md

* Update README-IT.md

* Update README-JA.md

* Update README-JA.md

* Update README-KO.md

* Update README-RU.md

* Update README-TR.md

* Update README-ZH.md

* Update README-AR.md

* Update README-ES.md

* Update README-FA.md

* Update README-FR.md

* Update README-IT.md

Co-authored-by: Alfredo Canziani <[email protected]>

* [pt] Begin translation to Portuguese (#542)

* [pt_BR] Begin translation to Brazilian Portuguese.

* Accomodate changes

* Update README-PT.md

Co-authored-by: Alfredo Canziani <[email protected]>

* Add PT to all README-XX.md

* [JA] translation of week01, week02, week03, week06, week08, week09, week10, week11 , week12, week13 and week14 (#700)

* add week07 drafts

* Update 07-1.md

* Update 07-2.md

* Update 07-3.md

* Update 07.md

* Update _config.yml

* japanese translation week11

* japanese translation week11

* add week7

* add week07 & week11

* add week11 & week14

* add week12

* add week13

* add week06

* add week09

* add week10

* modify week14

* add week02

* add week01

* add week03

* add week08 (Jesmer Wong)

* review and modify week01

* add week02/02.md

* review and modify week02

* Update 03-2.md

* Update 03-3.md

* Update 06-1.md

* Update 06-2.md

* Update 06-3.md

* Update 06.md

* Update 07-2.md

* Update 07.md

* Update 09-1.md

* Update 09-3.md

* Update 09.md

* Update 10-1.md

* Update 10-2.md

* Update 10-3.md

* Update 10.md

* Update 11.md

* Update 12-1.md

* Update 12-2.md

* Update 12-3.md

* Update 12.md

* Update 13-1.md

* Update 13-2.md

* Update 13-3.md

* Update 13.md

* Update 14-1.md

* Update 14-2.md

* Update 14-3.md

* Update 14.md

* Update 11-3.md

* Update 11-2.md

* Update 11-1.md

* Update _config.yml

Co-authored-by: Alfredo Canziani <[email protected]>

* [JA] missing lang bug fix

* Update 01-1.md (#706)

* Update 01.md (#707)

* Update 01-2.md (#709)

* Update 01-3.md (#710)

* [BN] Beginning translations to Bengali (#677)

* Added README-BN.md and index.md for Bengali translation

* Added translation of 01.md

* Added Bengali section

* Added Bengali flag

* Added Bengali Flag

* Added Bengali flag

* Added Bengali flag

* Added Bengali flag

* Added Bengali flag

* Added Bengali flag

* Added Bengali flag

* Added Bengali flag

* Added Bengali flag

* Added Bengali flag

Co-authored-by: Alfredo Canziani <[email protected]>

* Fix BN index

* review and modify week06

* fix bug

* fix bug: corrected the edit of docs/pt/README-PT.md by mistake

* remove unrelated files

* review and modify week07

* review and modify week08

* review and modeeify week09

* review and modify week10

* add week11

* review and modify week12

* review and modify week13

* review and modify week14

* review and modify index.md

* review and modify README-JA.md

* add caption of fig7

* review and modify week01

* review and modify week02

Co-authored-by: Tan Huynh <[email protected]>
Co-authored-by: Alfredo Canziani <[email protected]>
Co-authored-by: Ricardo Barros Lourenço <[email protected]>
Co-authored-by: CodTan <[email protected]>
  • Loading branch information
5 people authored Jul 29, 2022
1 parent 9ed20cb commit b69d480
Show file tree
Hide file tree
Showing 50 changed files with 1,205 additions and 1,151 deletions.
2 changes: 1 addition & 1 deletion docs/ja/README-JA.md
Original file line number Diff line number Diff line change
Expand Up @@ -53,7 +53,7 @@ source activate pDL
## Jupyter Notebook または JupyterLab を起動する

<!-- Start from terminal as usual: -->
次のコマンドを実行してターミナルから起動します.
次のコマンドを実行してターミナルから起動します

```bash
jupyter lab
Expand Down
4 changes: 2 additions & 2 deletions docs/ja/index.md
Original file line number Diff line number Diff line change
Expand Up @@ -359,6 +359,6 @@ translator: Go Inoue

## 注意事項

このサイトにあるテキストの元はニューヨーク大学の学生のレクチャー・ノートのです。日本語の翻訳は複数のボランティアによって翻訳されたものであるため、言葉遣い・訳語・スタイルが統一されてないことがあります。
このサイトにあるテキストの元はニューヨーク大学の学生のレクチャー・ノートです。日本語の翻訳は複数のボランティアによって翻訳されたものであるため、言葉遣い・訳語・スタイルが統一されてないことがあります。

また、誤訳、翻訳漏れ、入力ミスもあるかもしれません。それに気づく場合[GitHub](https://github.com/Atcold/pytorch-Deep-Learning/pulls)にプルリクエストを提出し、タイトルに`[JA]`(和訳に関わるもの)を記載していただけると嬉しいです。
また、誤訳、翻訳漏れ、入力ミスもあるかもしれません。それに気づいた場合[GitHub](https://github.com/Atcold/pytorch-Deep-Learning/pulls)にプルリクエストを提出し、タイトルに`[JA]`(和訳に関わるもの)を記載していただけると嬉しいです。
2 changes: 1 addition & 1 deletion docs/ja/week01/01-1.md
Original file line number Diff line number Diff line change
Expand Up @@ -142,7 +142,7 @@ $$

<!-- ## Hierarchical representation of the Visual Cortex -->

## 視覚野の階層的表現Hierarchical representation of the Visual Cortex
## 視覚野の階層的表現

<!-- Experiments by Fukushima gave us an understanding of how our brain interprets the input to our eyes. In summary, it was discovered that neurons in front of our retina compress the input (known as contrast normalization) and the signal travels from our eyes to our brain. After this, the image gets processed in stages and certain neurons get activated for certain categories. Hence, the visual cortex does pattern recognition in a hierarchical manner. -->

Expand Down
6 changes: 3 additions & 3 deletions docs/ja/week01/01-2.md
Original file line number Diff line number Diff line change
Expand Up @@ -35,14 +35,14 @@ Over the years, the number of layers used has been increasing: LeNet -- 7, AlexN

福島(1982)は、2つの概念に基づいて、脳と同じように働くニューラルネット(NN)を構築しました。第一に、ニューロンは視覚野全体に複製されているということです。第二に、単純型細胞(方位選択ユニット)からの情報をプールする複雑型細胞が存在するということです。その結果、像のシフトは単純型細胞の活性化に変化を与えますが、複雑型細胞の統合的な活性化には影響を与えません(畳み込みプーリング)。

LeCun(1990)は手書きの数字を認識するCNNの訓練に誤差逆伝播法を使いました。1992年のデモでは、任意のスタイルの数字を認識しています。エンドツーエンドで学習されたモデルを使って文字・パターン認識を行うことは、当時としては新しいことでした。それまでは、教師ありモデルの前に特徴量抽出器を置いていました。
LeCun(1990)は手書きの数字を識別するCNNの訓練に誤差逆伝播法を使いました。1992年のデモでは、任意のスタイルの数字を認識しています。エンドツーエンドで学習されたモデルを使って文字・パターン認識を行うことは、当時としては新しいことでした。それまでは、教師ありモデルの前に特徴量抽出器を置いていました。
これらの新しいCNNシステムは、画像中の複数の文字を同時に認識することができました。そのためには、CNN用の小さな入力ウィンドウを使って、画像全体をスワイプしました。それが活性化すれば、特定の文字が存在することを意味します。

その後、このアイデアは、顔や人物の検出やセマンティックセグメンテーション(ピクセル単位の分類)にも応用されました。例としては、Hadsell (2009)やFarabet (2012)などがあります。これはやがて産業界でも普及し、車線追跡などの自動運転の応用場面でも使われるようになりました。

CNNを訓練するための特殊なタイプのハードウェアは1980年代に話題になりましたが、その後は関心が下がり、今では再び人気が出てきています。

ディープラーニング(当時はこの用語は使われていませんでしたが)革命は2010年から2013年に始まりました。研究者たちは、大規模なCNNをより速く訓練するのに役立つアルゴリズムを発明することに焦点を当てていました。Krizhevsky(2012)は、それまで使われていたCNNよりもはるかに大規模なAlexNetを考え出し、GPUを使ってImageNet(130万サンプル)上で訓練しました。数週間学習を回した後、AlexNetは競合する当時最高のシステムの性能を大差で上回りました。具体的には、トップ5の誤差率は25.8%に対して16.4%でした。
ディープラーニング(当時はこの用語は使われていませんでしたが)革命は2010年から2013年に始まりました。研究者たちは、大規模なCNNをより速く訓練するのに役立つアルゴリズムを発明することに焦点を当てていました。Krizhevsky(2012)は、それまで使われていたCNNよりもはるかに大規模なAlexNetを考え出し、GPUを使ってImageNet(130万サンプル)で訓練をしました。数週間学習を回した後、AlexNetは競合する当時最高のシステムの性能を大差で上回りました。具体的には、トップ5の誤差率は25.8%に対して16.4%でした。

AlexNetの成功を見て,コンピュータビジョン(CV)コミュニティはCNNが機能することを確信しました。2011年から2012年までのCNNに言及した論文はすべてリジェクトされていましたが、2016年以降はほとんどのCV論文でCNNが使われています。

Expand Down Expand Up @@ -148,4 +148,4 @@ Q&A from the end of lecture:
講義の最後からQ&A。

- 顔の例では、他の次元削減技術(PCA*など*)でこれらの特徴を抽出できますか?
- 答え: 多様体表面が超平面である場合にのみ機能しますが、そうではありません。
- 答え: 多様体表面が超平面である場合にのみ機能しますが、そうではありません。
7 changes: 4 additions & 3 deletions docs/ja/week01/01-3.md
Original file line number Diff line number Diff line change
Expand Up @@ -133,7 +133,7 @@ We visualize the linear transformations of several random matrices in Fig. 3. No
The matrices used were generated with Numpy; however, we can also use PyTorch's `nn.Linear` class with `bias = False` to create linear transformations. -->

式(1)において、行列 $U$ と $V^\top$ は互いに直交する行列で、それぞれ回転変換と鏡映変換を表しています。真ん中の行列は対角行列で, スケーリング変換を表しています。
式(1)において、行列 $U$ と $V^\top$ は互いに直交する行列で、それぞれ回転変換と鏡映変換を表しています。真ん中の行列は対角行列でスケーリング変換を表しています。

いくつかのランダムな行列の線形変換を図3に示します。特異値が結果の変換に与える影響に注目してください。

Expand Down Expand Up @@ -169,9 +169,10 @@ Figure 4: hyperbolic tangent non-linearity
</center>
<!--
The effect of this non-linearity is to bound points between $-1$ and $+1$, creating a square. As the value of $s$ in eq. (2) increases, more and more points are pushed to the edge of the square. This is shown in Fig. 5. By forcing more points to the edge, we spread them out more and can then attempt to classify them. -->
この非線形性は、 $-1$ と $+1$ の間の点を束縛し、正方形を作ります。(2)式の $s$ の値が大きくなるにつれて、より多くの点が正方形の端に押し出されます。これを図5に示します。より多くの点を周辺に押し付けることで、点をより大きく広げることができ、これによって分類を試みることができます。

<!--

この非線形性は、$-1$ と $+1$ の間の点を束縛し、正方形を作ります。(2)式の $s$ の値が大きくなるにつれて、より多くの点が正方形の端に押し出されます。これを図5に示します。より多くの点を周辺に押し付けることで、点をより大きく広げることができ、これによって分類を試みることができます。
<!--
| <img src="{{site.baseurl}}/images/week01/01-3/matrix_multiplication_with_nonlinearity_s=1_lab1.png" width="200px" /> | <img src="{{site.baseurl}}/images/week01/01-3/matrix_multiplication_with_nonlinearity_s=5_lab1.png" width="200px" /> |
| (a) Non-linearity with $s=1$ | (b) Nonlinearity with $s=5$ |
Expand Down
2 changes: 1 addition & 1 deletion docs/ja/week02/02-1.md
Original file line number Diff line number Diff line change
Expand Up @@ -133,7 +133,7 @@ $$

​ 任意のサンプルの集合 $$S = \{(x[p],y[p]) \mid p=0,1...P-1 \}$$ に対して

集合 S の平均損失は次のようになります $$L(S,w) = \frac{1}{P} \sum_{(x,y)} L(x,y,w)$$
集合 $S$ の平均損失は次のようになります $$L(S,w) = \frac{1}{P} \sum_{(x,y)} L(x,y,w)$$

| <center><img src="{{site.baseurl}}/images/week02/02-1/Average_Loss.png" alt="Average_Loss" style="zoom:33%;" /></center> |
| <center>図2: 平均損失をもつモデルの計算グラフ </center>|
Expand Down
2 changes: 1 addition & 1 deletion docs/ja/week02/02-2.md
Original file line number Diff line number Diff line change
Expand Up @@ -287,4 +287,4 @@ Finally, note that backpropagation doesn't just work for stacked models; it can

より多くのトリックについては、<a href="http://yann.lecun.com/exdb/publis/pdf/lecun-98b.pdf">LeCun et al 1998</a>を参照してください。

最後に、誤差逆伝播法はスタックモデルだけでなく、モジュールに部分的な順序がある限り、有向非巡回グラフ(DAG)でも動作することに注意してください。
最後に、誤差逆伝播法はスタックモデルだけでなく、モジュールに部分的な順序がある限り、有向非巡回グラフ(DAG)でも動作することに注意してください。
6 changes: 3 additions & 3 deletions docs/ja/week02/02-3.md
Original file line number Diff line number Diff line change
Expand Up @@ -413,7 +413,7 @@ Remember, an affine transformation is five things: rotation, reflection, transla
As it can be seen in **Fig. 9**, when trying to separate the spiral data with linear decision boundaries - only using `nn.linear()` modules, without a non-linearity between them - the best we can achieve is an accuracy of 50%. -->

`nn.Sequential()`は、追加された順にモジュールをコンストラクタに渡すコンテナですが、`nn.linear()` は、**アフィン変換**$\boldsymbol y = \boldsymbol W \boldsymbol x + \boldsymbol b$を適用するので、名前が間違っています。詳しくは [PyTorch documentation](https://pytorch.org/docs/stable/nn.html) を参照してください。
`nn.Sequential()`は、追加された順にモジュールをコンストラクタに渡すコンテナですが、`nn.linear()` は、**アフィン変換**$\boldsymbol y = \boldsymbol W \boldsymbol x + \boldsymbol b$を適用するので、名前が間違っています。詳しくは [PyTorchのドキュメント](https://pytorch.org/docs/stable/nn.html) を参照してください。

アフィン変換とは、回転、反射、平行移動、スケーリング、剪断の5つであることを覚えておいてください。

Expand Down Expand Up @@ -441,7 +441,7 @@ As it can be seen in **Fig. 9**, when trying to separate the spiral data with li
</center>

<!-- An example of a regression problem which can't be solved correctly with a linear regression, but is easily solved with the same neural network structure can be seen in [this notebook](https://github.com/Atcold/pytorch-Deep-Learning-Minicourse/blob/master/05-regression.ipynb) and **Fig. 11**, which shows 10 different networks, where 5 have a `nn.ReLU()` link function and 5 have a `nn.Tanh()`. The former is a piecewise linear function, whereas the latter is a continuous and smooth regression. -->
線形回帰では正しく解けないけれど、同じニューラルネットワーク構造では簡単に解ける回帰問題の例を[このノートブック](https://github.com/Atcold/pytorch-Deep-Learning-Minicourse/blob/master/05-regression.ipynb)**図11**に示します。そこには、10の異なるネットワークが示されています。そのうち5つは`nn.ReLU()`を用いていて、残りの5つは`nn.Tanh()`を用いています。前者は断片的な線形関数であるのに対し、後者は連続的で滑らかな回帰です。
線形回帰では正しく解けないけれど、同じニューラルネットワーク構造では簡単に解ける回帰問題の例を[このnotebook](https://github.com/Atcold/pytorch-Deep-Learning-Minicourse/blob/master/05-regression.ipynb)**図11**に示します。そこには、10の異なるネットワークが示されています。そのうち5つは`nn.ReLU()`を用いていて、残りの5つは`nn.Tanh()`を用いています。前者は断片的な線形関数であるのに対し、後者は連続的で滑らかな回帰です。


<!-- <center>
Expand Down Expand Up @@ -487,4 +487,4 @@ PyTorchを使ってニューラルネットワークを学習するには、5つ
4. `J.backward()` は逆伝播と勾配の蓄積を行います。`requires_grad=True`となっている各変数$\texttt{x}$について$\nabla_\texttt{x} J$を計算します。これらは各変数の勾配に蓄積されます:$\texttt{x.grad} \gets \texttt{x.grad} + \nabla_\texttt{x} J$。
5. `optimiser.step()` は、勾配降下法のステップを進め、重みを更新します。

NNを学習する際には、この5つのステップが提示された順に、必要になる可能性が高いです。
NNを学習する際には、この5つのステップが提示された順に、必要になる可能性が高いです。
4 changes: 2 additions & 2 deletions docs/ja/week02/02.md
Original file line number Diff line number Diff line change
Expand Up @@ -26,11 +26,11 @@ We give a brief introduction to supervised learning using artificial neural netw
パラメトリックモデルとは何かを理解することから始め、損失関数とは何かを議論します。次に、伝統的なニューラルネットワークにおいて、勾配に基づく方法が誤差逆伝播アルゴリズムでどのように使用されているかを見ていきます。最後に、PyTorchでニューラルネットワークを実装する方法を学び、誤差逆伝播法のより一般的な形について議論して、このセクションを締めくくります。


## レクチャーパートB
## レクチャーパートB

誤差逆伝播法の具体例から始め、ヤコビ行列の次元について議論します。次に、様々な基本的なニューラルネットモジュールを見て、その勾配を計算し、softmaxとlogsoftmaxについて簡単に議論します。このパートのもう一つのトピックは、誤差逆伝播法のための実践的なコツです。


## 演習

人工ニューラルネットワークを用いた教師あり学習について簡単に紹介します。これらのネットワークを訓練するために使用される問題の定式化とデータの慣例について説明します。また、マルチクラス分類のためのニューラルネットワークの訓練方法や、ネットワークが訓練された後に推論を行う方法についても議論します。
人工ニューラルネットワークを用いた教師あり学習について簡単に紹介します。これらのネットワークを訓練するために使用される問題の定式化とデータの慣例について説明します。また、マルチクラス分類のためのニューラルネットワークの訓練方法や、ネットワークが訓練された後に推論を行う方法についても議論します。
1 change: 1 addition & 0 deletions docs/ja/week03/03-1.md
Original file line number Diff line number Diff line change
Expand Up @@ -207,6 +207,7 @@ $$y_{ij} = \sum_{kl} w_{kl} x_{i+k, j+l}$$
### DCNNにおける畳み込み演算でよく用いられる特殊なパラメータ

<!-- 1. **Striding**: instead of shifting the window in $x$ one entry at a time, one can do so with a larger step (for example two or three entries at a time).
Example: Suppose the input $x$ is one dimensional and has size of 100 and $w$ has size 5. The output size with a stride of 1 or 2 is shown in the table below:
| Stride | 1 | 2 |
Expand Down
1 change: 0 additions & 1 deletion docs/ja/week03/03-2.md
Original file line number Diff line number Diff line change
Expand Up @@ -344,7 +344,6 @@ We can build a CNN with 2 convolution layers with stride 1 and 2 pooling layers
### 例: 可変な入力サイズ

全体のストライドが4になるように、ストライド1の畳み込み層を2つもちストライドが2のプーリング層を2つ持つCNNを構築することができます。したがって、新しい出力を得たい場合は、入力ウィンドウを4だけずらす必要があります。言いたいことをより明確にするために、下の図(緑のユニット)を見てください(図中の緑のユニット)。まず、サイズ10の入力があり、これに対してサイズ3の畳み込みを行い、8個のユニットを得ます。その後、サイズ2のプーリングを行い、4個のユニットを得ます。同様に、再び畳み込みとプーリングを繰り返し、最終的には1個の出力が得られます。

<!-- <center>
<img src="{{site.baseurl}}/images/week03/03-2/example.jpg" width="600px" /><br>
<b>Fig. 5</b> ConvNet Architecture On Variant Input Size Binding
Expand Down
1 change: 0 additions & 1 deletion docs/ja/week04/04-1.md
Original file line number Diff line number Diff line change
Expand Up @@ -91,7 +91,6 @@ $\xi = \alpha$である場合、2つのベクトルは完全に同じ方向を

線形変換を理解するもう1つの方法は、$ \ boldsymbol {z} $も次のように展開すれば:


$$
\boldsymbol{A}\boldsymbol{x} =
\begin{pmatrix}
Expand Down
2 changes: 1 addition & 1 deletion docs/ja/week04/04.md
Original file line number Diff line number Diff line change
Expand Up @@ -15,4 +15,4 @@ translator: Jesmer Wong
<!-- We start with a brief review of linear algebra and then extend the topic to convolutions using audio data as an example. Key concepts like locality, stationarity and Toeplitz matrix are reiterated. Then we give a live demo of convolution performance in pitch analysis. Finally, there is a short digression about the dimensionality of different data.
-->

線形代数の簡単な復習から始め、音声データを例として使って、このトピックを畳み込みに拡張します。 局所性、定常性、テプリッツ行列などの主要な概念が繰り返されます。 次に、ピッチ分析における畳み込みのパフォーマンスのライブデモを行います。 最後に、さまざまなデータの次元の概念について短い余談があります。
線形代数の簡単な復習から始め、音声データを例として使って、このトピックを畳み込みに拡張します。 局所性、定常性、テプリッツ行列などの主要な概念が繰り返されます。 次に、ピッチ分析における畳み込みのパフォーマンスのライブデモを行います。 最後に、さまざまなデータの次元の概念について短い余談があります。
Loading

0 comments on commit b69d480

Please sign in to comment.