Dataset Viewer
	| audio
				 audioduration (s) 24.1 30 | transcription
				 stringlengths 151 474 | path
				 stringlengths 15 18 | condition_on_prev
				 sequencelengths 66 254 ⌀ | whisper_transcript
				 stringlengths 203 829 | 
|---|---|---|---|---|
| 
	好 各 位 同 學 大 家 好 我 們 來 上 課 吧 好 那 接 下 來 啊 我 們 要 講 decoder 那 我 們 上 上 週 呢 已 經 講 了 encoder 那 接 下 來 呢 我 們 要 講 decoder 那 decoder 呢 其 實 有 兩 種 等 一 下 呢 會 花 比 較 多 時 間 介 紹 你 比 較 常 見 的 這 個 叫 做 autoregressive 的 decoder 那 這 個 autoregressive 的 decoder 是 怎 麼 運 作 的 呢 那 等 一 下 我 們 是 用 語 音 辨 識 | 
	ML2021_ASR_ST-0 | null | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>好,各位同學大家好,我們來上課吧<|3.32|><|3.32|>那接下來我們要講decoder<|7.28|><|7.28|>我們上上週已經講了encoder<|11.40|><|11.40|>那接下來我們要講decoder<|14.16|><|14.16|>那decoder其實有兩種<|16.84|><|16.84|>等一下會花比較多時間介紹<|20.24|><|20.24|>比較常見的,這個叫做autoregressive decoder<|24.68|><|24.68|>那這個autoregressive decoder是怎麼運作的呢?<|27.72|><|27.72|><|endoftext|> | |
| 
	來 當 作 例 子 來 跟 大 家 說 明 或 用 在 作 業 裡 面 的 機 器 翻 譯 其 實 是 一 模 一 樣 的 你 只 是 把 輸 入 輸 出 改 成 不 同 的 東 西 而 已 好 那 語 音 辨 識 是 怎 麼 做 的 呢 語 音 辨 識 你 知 道 語 音 辨 識 就 是 輸 入 一 段 聲 音 輸 出 一 串 文 字 那 你 會 把 一 段 聲 音 輸 入 給 encoder 比 如 說 你 對 機 器 說 機 器 學 習 機 器 收 到 一 段 聲 音 訊 號 聲 音 訊 號 呢 進 入 encoder 以 後 輸 出 會 是 什 麼 呢 | 
	ML2021_ASR_ST-1 | 
	[
  50361,
  50364,
  2131,
  11,
  22073,
  13089,
  21372,
  15248,
  11,
  5884,
  3763,
  5708,
  3549,
  110,
  6062,
  50530,
  50530,
  4184,
  40012,
  5884,
  4275,
  11932,
  42821,
  19866,
  50728,
  50728,
  5884,
  5708,
  5708,
  38003,
  25338,
  11932,
  2289,
  22660,
  19866,
  50934,
  50934,
  4184,
  40012,
  5884,
  4275,
  11932,
  42821,
  19866,
  51072,
  51072,
  4184,
  42821,
  19866,
  14139,
  2412,
  16313,
  16516,
  51206,
  51206,
  24554,
  6236,
  20127,
  25174,
  6392,
  20788,
  30312,
  38193,
  51376,
  51376,
  11706,
  23915,
  11279,
  10470,
  1546,
  11,
  6287,
  19855,
  10907,
  1375,
  418,
  3091,
  488,
  979,
  19866,
  51598,
  51598,
  4184,
  6287,
  1375,
  418,
  3091,
  488,
  979,
  19866,
  1541,
  11614,
  32772,
  11914,
  1546,
  6240,
  30,
  51750,
  51750
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>來當作例子來跟大家說明<|2.00|><|2.00|>不過用在作業裡面的機器翻譯<|4.80|><|4.80|>其實是一模一樣的<|7.00|><|7.00|>你只是把輸入輸出改成不同的東西而已<|11.40|><|11.40|>好那語音辨識是怎麼做的呢<|13.40|><|13.40|>語音辨識你知道語音辨識就是輸入一段聲音<|16.20|><|16.20|>輸出一串文字<|18.10|><|18.10|>那你會把一段聲音輸入給encoder<|21.50|><|21.50|>比如說你對機器說機器學習<|23.80|><|23.80|>機器收到一段聲音訊號<|25.60|><|25.60|>聲音訊號進入encoder以後<|27.80|><|27.80|>輸出會是什麼呢<|29.00|><|endoftext|> | |
| 
	輸 出 會 變 成 一 排 vector 那 我 們 上 週 花 了 很 多 時 間 講 encoder 裡 面 有 什 麼 樣 的 內 容 它 裡 面 非 常 地 複 雜 如 果 你 忘 了 的 話 就 算 了 你 就 記 得 說 encoder 做 的 事 情 就 是 輸 入 一 個 vector sequence 輸 出 另 外 一 個 vector sequence 那 接 下 來 呢 就 輪 到 decoder 運 作 了 decoder 要 做 的 事 情 就 是 產 生 輸 出 接 下 來 輪 到 decoder 產 生 語 音 辨 識 的 結 果 | 
	ML2021_ASR_ST-2 | 
	[
  50361,
  50364,
  3763,
  13118,
  11914,
  17797,
  7626,
  3763,
  47349,
  4622,
  11100,
  50464,
  50464,
  28193,
  9254,
  3581,
  11914,
  27119,
  32399,
  1546,
  17543,
  34386,
  42716,
  11823,
  107,
  50604,
  50604,
  14139,
  1541,
  2257,
  41908,
  22977,
  1546,
  50714,
  50714,
  2166,
  36859,
  16075,
  12290,
  116,
  14028,
  12290,
  116,
  7781,
  34490,
  11336,
  47123,
  1546,
  26978,
  48420,
  50934,
  50934,
  2131,
  4184,
  31348,
  18034,
  9830,
  101,
  43143,
  1541,
  11614,
  10907,
  1546,
  6240,
  51034,
  51034,
  31348,
  18034,
  9830,
  101,
  43143,
  28945,
  31348,
  18034,
  9830,
  101,
  43143,
  5620,
  12290,
  116,
  14028,
  2257,
  28427,
  29454,
  18034,
  51174,
  51174,
  12290,
  116,
  7781,
  2257,
  940,
  110,
  17174,
  22381,
  51269,
  51269,
  4184,
  2166,
  6236,
  16075,
  2257,
  28427,
  29454,
  18034,
  12290,
  116,
  14028,
  17798,
  22660,
  19866,
  51439,
  51439,
  36757,
  4622,
  2166,
  2855,
  17543,
  34386,
  4622,
  17543,
  34386,
  21372,
  34025,
  51554,
  51554,
  17543,
  34386,
  18681,
  4511,
  2257,
  28427,
  29454,
  18034,
  5396,
  232,
  18616,
  51644,
  51644,
  29454,
  18034,
  5396,
  232,
  18616,
  18214,
  14028,
  22660,
  19866,
  3588,
  5661,
  51754,
  51754,
  12290,
  116,
  7781,
  6236,
  35851,
  6240,
  51814
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>輸出會變成一排vector<|2.50|><|2.50|>那我們上週花了很多時間講encoder裡面有什麼樣的內容<|5.88|><|5.88|>它裡面非常的複雜<|7.38|><|7.38|>如果你忘了的話就算了<|8.84|><|8.84|>你就記得說encoder做的事情<|10.98|><|10.98|>就是輸入一個vector sequence<|13.18|><|13.18|>輸出另外一個vector sequence<|15.42|><|15.42|>那接下來呢就輪到decoder運作了<|18.32|><|18.32|>decoder要做的事情就是產生輸出<|22.36|><|22.36|>接下來輪到decoder產生語音辨識的結果<|26.56|><|endoftext|> | |
| 
	那 decoder 怎 麼 產 生 這 個 語 音 辨 識 的 結 果 呢 那 decoder 做 的 事 情 就 是 把 encoder 的 輸 出 先 讀 進 去 那 至 於 怎 麼 讀 進 去 那 這 個 我 們 等 一 下 再 講 我 們 先 你 先 假 設 somehow 就 是 有 某 種 方 法 把 encoder 的 輸 出 讀 到 decoder 裡 面 這 步 我 們 等 一 下 再 處 理 那 decoder 怎 麼 產 生 一 段 文 字 呢 語 音 辨 識 機 器 的 輸 出 就 是 一 段 文 字 decoder 怎 麼 產 生 一 段 文 字 呢 那 首 先 呢 | 
	ML2021_ASR_ST-3 | 
	[
  50361,
  50364,
  12290,
  116,
  7781,
  6236,
  26327,
  11336,
  2257,
  44647,
  303,
  1672,
  50489,
  50489,
  46714,
  5708,
  38003,
  20127,
  2289,
  20778,
  20788,
  11932,
  22660,
  19866,
  32399,
  2412,
  7598,
  6180,
  1546,
  28472,
  25750,
  50658,
  50658,
  11284,
  32399,
  48263,
  164,
  97,
  229,
  6306,
  250,
  50733,
  50733,
  45669,
  26677,
  2289,
  21358,
  3111,
  19497,
  2289,
  50806,
  50806,
  41045,
  30872,
  4622,
  22660,
  19866,
  10907,
  1546,
  24675,
  50913,
  50913,
  5620,
  12290,
  116,
  14028,
  8990,
  303,
  1672,
  8310,
  51023,
  51023,
  12290,
  116,
  7781,
  26202,
  8990,
  303,
  1672,
  8310,
  51135,
  51135,
  4184,
  40012,
  6240,
  3111,
  12290,
  103,
  4511,
  42821,
  19866,
  32772,
  11914,
  2289,
  51280,
  51280,
  42821,
  19866,
  4275,
  10907,
  1546,
  24675,
  5620,
  33299,
  8244,
  12290,
  116,
  7781,
  51482,
  51482,
  40012,
  12290,
  103,
  4511,
  42821,
  19866,
  33299,
  8244,
  31348,
  18034,
  9830,
  101,
  43143,
  1546,
  35181,
  51692
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>那Decoder怎麼產生這個語音辨識的結果呢?<|3.54|><|3.54|>那Decoder做的事情就是把Encoder的輸出先讀進去<|8.54|><|8.54|>那至於怎麼讀進去,這個我們等一下再講<|12.38|><|12.38|>我們先假設商號就是有某種方法把Encoder的輸出讀到Decoder裡面<|17.76|><|17.76|>這部我們等一下再處理<|19.52|><|19.52|>那Decoder怎麼產生一段文字呢?<|23.20|><|23.20|>語音辨識機器的輸出就是一段文字<|26.06|><|26.06|>Decoder怎麼產生一段文字呢?<|28.06|><|28.06|>那首先呢<|29.06|><|endoftext|> | |
| 
	你 要 先 給 它 一 個 特 殊 的 符 號 這 個 特 殊 的 符 號 呢 代 表 開 始 那 在 助 教 的 投 影 片 裡 面 呢 是 寫 begin of sentence 縮 寫 是 bos 這 邊 會 怕 你 不 知 道 bos 是 什 麼 啦 所 以 我 就 把 它 的 意 思 明 確 地 寫 出 來 就 是 開 始 就 是 begin 的 意 思 那 這 個 是 一 個 special 的 token 你 就 是 在 你 的 那 個 lexicon 裡 面 啊 你 就 在 你 可 能 本 來 decoder 可 能 產 生 的 文 字 裡 面 呢 多 加 一 個 特 殊 的 符 號 | 
	ML2021_ASR_ST-4 | 
	[
  50361,
  50364,
  4184,
  35,
  3045,
  19866,
  11614,
  33299,
  8244,
  6287,
  31348,
  18034,
  9830,
  101,
  43143,
  1546,
  35181,
  6240,
  30,
  50541,
  50541,
  4184,
  35,
  3045,
  19866,
  10907,
  1546,
  24675,
  5620,
  16075,
  16257,
  66,
  19866,
  1546,
  12290,
  116,
  7781,
  10108,
  7422,
  222,
  18214,
  6734,
  50791,
  50791,
  4184,
  20844,
  19488,
  11614,
  7422,
  222,
  18214,
  6734,
  11,
  6287,
  5884,
  24554,
  8623,
  11932,
  50983,
  50983,
  5884,
  10108,
  31706,
  39035,
  45581,
  18616,
  5620,
  2412,
  17238,
  238,
  16516,
  9249,
  11148,
  16075,
  16257,
  66,
  19866,
  1546,
  12290,
  116,
  7781,
  7422,
  222,
  4511,
  35,
  3045,
  19866,
  32399,
  51252,
  51252,
  2664,
  13470,
  5884,
  24554,
  8623,
  39289,
  13876,
  51340,
  51340,
  4184,
  35,
  3045,
  19866,
  11614,
  33299,
  8244,
  2257,
  28427,
  17174,
  22381,
  6240,
  30,
  51524,
  51524,
  31348,
  18034,
  9830,
  101,
  43143,
  17543,
  34386,
  1546,
  12290,
  116,
  7781,
  5620,
  2257,
  28427,
  17174,
  22381,
  51667,
  51667,
  35,
  3045,
  19866,
  11614,
  33299,
  8244,
  2257,
  28427,
  17174,
  22381,
  6240,
  30,
  51767,
  51767,
  4184,
  36490,
  6240,
  51817
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>你要先給他一個特殊的符號<|2.44|><|2.44|>這個特殊的符號代表開始<|5.72|><|5.72|>那在助教頭影片裡面<|7.56|><|7.56|>是寫begin of sentence<|9.52|><|9.52|>所寫是BOS<|11.24|><|11.24|>那我這邊因為怕你不知道BOS是什麼<|13.20|><|13.20|>所以我就把他的意思明確的寫出來<|15.80|><|15.80|>就是開始就是begin的意思<|17.80|><|17.80|>那這個是一個special的token<|19.76|><|19.76|>你就是在你的lexicon裡面<|23.00|><|23.00|>你就是在你可能本來decoder<|24.64|><|24.64|>可能產生的文字裡面<|26.72|><|26.72|>多加一個特殊的符號<|29.36|><|endoftext|> | |
| 
	多 加 一 個 特 殊 的 字 那 這 個 字 呢 就 代 表 了 begin 代 表 了 開 始 這 個 事 情 好 所 以 decoder 呢 就 吃 到 這 個 特 殊 的 符 號 那 在 這 個 機 器 學 習 裡 面 啊 假 設 你 要 處 理 nlp 的 問 題 每 一 個 token 你 都 可 以 把 它 用 一 個 one-hot 的 vector 來 表 示 one-hot vector 就 其 中 一 維 是 1 其 他 都 是 0 所 以 begin 也 是 用 one-hot vector 來 表 示 其 中 一 維 是 1 其 他 是 0 好 那 接 下 來 呢 | 
	ML2021_ASR_ST-5 | 
	[
  50361,
  50364,
  32085,
  10108,
  17798,
  5000,
  8990,
  17682,
  15976,
  232,
  1546,
  5437,
  99,
  18616,
  50486,
  50486,
  6287,
  17682,
  15976,
  232,
  1546,
  5437,
  99,
  18616,
  19105,
  17571,
  21017,
  50650,
  50650,
  4184,
  3581,
  37618,
  21936,
  19921,
  25373,
  32399,
  50742,
  50742,
  1541,
  4510,
  104,
  650,
  1494,
  295,
  8174,
  50840,
  50840,
  5966,
  4510,
  104,
  1541,
  33,
  4367,
  50926,
  50926,
  4184,
  1654,
  22821,
  11471,
  21164,
  2166,
  17572,
  33,
  4367,
  35851,
  51024,
  51024,
  7239,
  22020,
  16075,
  31309,
  16697,
  11100,
  24293,
  1546,
  4510,
  104,
  29741,
  51154,
  51154,
  5620,
  21017,
  5620,
  650,
  1494,
  1546,
  16697,
  51254,
  51254,
  4184,
  41427,
  8990,
  7053,
  1013,
  1546,
  83,
  8406,
  51352,
  51352,
  2166,
  5620,
  3581,
  18961,
  2021,
  11911,
  32399,
  51514,
  51514,
  2166,
  5620,
  3581,
  2166,
  16657,
  8802,
  3763,
  1479,
  1291,
  1068,
  51596,
  51596,
  16657,
  33299,
  8244,
  1546,
  17174,
  22381,
  32399,
  51700,
  51700,
  6392,
  9990,
  8990,
  17682,
  15976,
  232,
  1546,
  5437,
  99,
  18616,
  51832
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>多加一個特殊的字<|1.66|><|1.66|>那這個字呢<|2.62|><|2.62|>就代表了begin<|4.20|><|4.20|>代表了開始這個事情<|5.80|><|5.80|>好所以decoder呢<|6.70|><|6.70|>就吃到這個特殊的符號<|8.30|><|8.30|>那在這個<|9.22|><|9.46|>機器學習裡面呢<|11.06|><|11.06|>假設你要處理NLP的問題<|13.50|><|13.66|>每一個<|14.50|><|14.86|>token你都可以把它用一個<|16.90|><|16.90|>one-hot vector來表示<|18.90|><|18.90|>one-hot vector就其中一位是1<|20.70|><|20.70|>其他都是0<|21.56|><|21.56|>所以begin<|22.30|><|22.46|>也是用one-hot vector來表示<|24.10|><|24.10|>其中一位是1<|25.20|><|25.20|>其他是0<|25.90|><|25.90|>那接下來呢<|26.86|><|endoftext|> | |
| 
	decoder 會 吐 出 一 個 向 量 這 個 向 量 裡 面 有 什 麼 呢 這 個 vector 裡 面 有 什 麼 呢 這 個 vector 的 長 度 啊 它 很 長 它 的 長 度 呢 跟 你 的 vocabulary 的 size 是 一 樣 的 那 vocabulary 則 是 什 麼 意 思 呢 你 就 先 想 好 說 你 的 decoder 輸 出 的 單 位 是 什 麼 假 設 我 們 今 天 做 的 是 中 文 的 語 音 辨 識 我 們 decoder 輸 出 的 是 中 文 | 
	ML2021_ASR_ST-6 | 
	[
  50361,
  50364,
  6392,
  9990,
  8990,
  17682,
  15976,
  232,
  1546,
  22381,
  50447,
  50447,
  4184,
  6287,
  22381,
  6240,
  50495,
  50495,
  3111,
  19105,
  17571,
  2289,
  650,
  1494,
  50574,
  50574,
  19105,
  17571,
  2289,
  21017,
  6287,
  24675,
  50654,
  50654,
  2131,
  7239,
  42821,
  19866,
  6240,
  50699,
  50699,
  3111,
  10123,
  4511,
  6287,
  17682,
  15976,
  232,
  1546,
  5437,
  99,
  18616,
  50779,
  50779,
  4184,
  3581,
  6287,
  50825,
  50837,
  17543,
  34386,
  21372,
  34025,
  32399,
  6240,
  50917,
  50917,
  31706,
  39035,
  32085,
  39289,
  13876,
  45,
  45196,
  1546,
  17197,
  51039,
  51047,
  23664,
  8990,
  51089,
  51107,
  83,
  8406,
  2166,
  7182,
  6723,
  42061,
  9254,
  8990,
  51209,
  51209,
  546,
  12,
  12194,
  8062,
  3763,
  40053,
  51309,
  51309,
  546,
  12,
  12194,
  8062,
  3111,
  9572,
  5975,
  2257,
  11160,
  1541,
  16,
  51399,
  51399,
  9572,
  5000,
  22796,
  15,
  51442,
  51442,
  7239,
  650,
  1494,
  51479,
  51487,
  22021,
  9254,
  546,
  12,
  12194,
  8062,
  3763,
  40053,
  51569,
  51569,
  9572,
  5975,
  2257,
  11160,
  1541,
  16,
  51624,
  51624,
  9572,
  47046,
  15,
  51659,
  51659,
  4184,
  40012,
  6240,
  51707
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>Decoder 會吐出一個向量<|3.00|><|3.00|>這個向量裡面有什麼呢?<|5.00|><|5.00|>這個 vector 裡面有什麼呢?<|7.00|><|7.00|>這個 vector 的長度啊,它很長<|9.00|><|9.00|>它的長度呢,跟你的 vocabulary 的 size 是一樣的<|15.00|><|15.00|>這邊的 vocabulary 指的是什麼意思呢?<|18.00|><|18.00|>你就先想好說,你的 decoder 輸出的單位是什麼<|22.00|><|22.00|>假設我們今天做的是中文的語音辨識<|25.00|><|25.00|>我們 decoder 輸出的是中文<|27.00|><|endoftext|> | |
| 
	那 你 這 邊 的 vocabulary 的 size 啊 可 能 就 是 中 文 的 方 塊 字 的 數 目 那 中 文 的 方 塊 字 有 多 少 呢 那 不 同 的 字 典 給 你 的 數 字 可 能 是 不 一 樣 的 那 常 用 的 中 文 的 方 塊 字 大 概 兩 三 千 個 那 一 般 人 呢 可 能 認 得 的 四 五 千 個 那 再 更 多 都 是 罕 見 字 冷 僻 的 字 你 可 能 看 到 也 不 知 道 它 要 怎 麼 唸 你 平 常 寫 也 寫 不 出 來 所 以 你 就 看 看 說 | 
	ML2021_ASR_ST-7 | 
	[
  50361,
  50364,
  35,
  3045,
  19866,
  220,
  6236,
  2392,
  238,
  7781,
  8990,
  24282,
  26748,
  50514,
  50514,
  6287,
  24282,
  26748,
  32399,
  2412,
  7598,
  6240,
  30,
  50614,
  50614,
  6287,
  8062,
  220,
  32399,
  2412,
  7598,
  6240,
  30,
  50714,
  50714,
  6287,
  8062,
  27949,
  15353,
  13127,
  4905,
  11,
  11284,
  4563,
  15353,
  50814,
  50814,
  45224,
  15353,
  13127,
  6240,
  11,
  9678,
  18961,
  19864,
  27949,
  2744,
  11947,
  22977,
  1546,
  51114,
  51114,
  22821,
  1546,
  19864,
  220,
  25922,
  24620,
  7598,
  16697,
  6240,
  30,
  51264,
  51264,
  41045,
  10108,
  7093,
  2131,
  4622,
  11,
  18961,
  979,
  19866,
  220,
  12290,
  116,
  7781,
  1546,
  24227,
  11160,
  35851,
  51464,
  51464,
  31706,
  39035,
  5884,
  12074,
  10907,
  24620,
  5975,
  17174,
  1546,
  31348,
  18034,
  9830,
  101,
  43143,
  51614,
  51614,
  5884,
  979,
  19866,
  220,
  12290,
  116,
  7781,
  24620,
  5975,
  17174,
  51714
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>那你這邊的Vocabulary的size可能就是中文的方塊字的數目<|8.90|><|8.90|>那中文的方塊字有多少呢?<|11.10|><|11.10|>那不同的字典給你的數字可能是不一樣的<|15.40|><|15.40|>那常用的中文的方塊字大概兩三千個<|18.40|><|18.40|>那一般人可能認得的四五千個<|21.10|><|21.10|>那再更多都是罕見字、冷屁的字<|23.90|><|23.90|>你可能看到也不知道他要怎麼念<|26.00|><|26.00|>你平常寫也寫不出來<|27.80|><|27.80|>所以你就看看說<|29.00|><|endoftext|> | |
| 
	你 要 讓 你 的 decoder 輸 出 哪 些 可 能 的 中 文 的 方 塊 字 你 就 把 它 列 在 這 邊 那 舉 例 來 說 你 覺 得 這 個 decoder 能 夠 輸 出 常 見 的 3000 個 方 塊 字 就 好 了 就 把 它 列 在 這 個 地 方 那 不 同 的 語 言 啊 它 輸 出 的 單 位 不 見 不 會 不 一 樣 這 個 取 決 於 你 對 那 個 語 言 的 理 解 比 如 說 英 文 你 可 以 選 擇 輸 出 字 母 的 a 到 z 輸 出 英 文 的 字 母 | 
	ML2021_ASR_ST-8 | 
	[
  50361,
  50364,
  4184,
  2166,
  22821,
  1546,
  53,
  905,
  19189,
  1546,
  27553,
  16657,
  5620,
  5975,
  17174,
  1546,
  9249,
  26268,
  22381,
  1546,
  30622,
  11386,
  50809,
  50809,
  4184,
  5975,
  17174,
  1546,
  9249,
  26268,
  22381,
  2412,
  41492,
  6240,
  30,
  50919,
  50919,
  4184,
  47123,
  1546,
  22381,
  2347,
  116,
  17798,
  18961,
  30622,
  22381,
  16657,
  1541,
  1960,
  22977,
  1546,
  51134,
  51134,
  4184,
  11279,
  9254,
  1546,
  5975,
  17174,
  1546,
  9249,
  26268,
  22381,
  32044,
  16313,
  10960,
  20787,
  3338,
  51284,
  51284,
  4184,
  2257,
  49640,
  4035,
  16657,
  22041,
  5916,
  1546,
  19425,
  21001,
  20787,
  3338,
  51419,
  51419,
  4184,
  8623,
  19002,
  6392,
  22796,
  16469,
  243,
  10470,
  22381,
  1231,
  32499,
  9636,
  223,
  1546,
  22381,
  51559,
  51559,
  2166,
  16657,
  18032,
  6404,
  17572,
  5000,
  4275,
  11614,
  33679,
  51664,
  51664,
  2166,
  16716,
  11279,
  4510,
  104,
  6404,
  4510,
  104,
  1960,
  29741,
  51754,
  51754,
  7239,
  41045,
  22884,
  4622,
  51814
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>你要讓你的decoder輸出哪些可能的中文方塊字<|5.22|><|5.22|>你就把它列在這邊<|6.84|><|6.84|>舉例來說,你覺得這個decoder能夠輸出常見的<|10.14|><|10.14|>3000個方塊字就好了<|12.26|><|12.26|>你就把它列在這個地方<|14.44|><|14.44|>那不同的語言,它輸出的單位不會不一樣<|19.06|><|19.06|>這個取決於你對那個語言的理解<|21.70|><|21.70|>比如說英文,你可以選擇輸出字母<|25.08|><|25.08|>A到Z輸出英文的字母<|28.08|><|endoftext|> | |
| 
	但 你 可 能 會 覺 得 字 母 這 個 單 位 太 小 了 有 人 可 能 會 選 擇 輸 出 英 文 的 詞 彙 英 文 的 詞 彙 是 用 空 白 作 為 間 隔 的 但 如 果 都 用 詞 彙 當 作 輸 出 又 太 多 了 所 以 你 會 發 現 剛 才 在 助 教 的 投 影 片 裡 面 助 教 說 他 是 用 subword 當 作 英 文 的 單 位 就 有 一 些 方 法 可 以 把 英 文 的 字 首 字 根 切 出 來 拿 字 首 字 根 當 作 單 位 那 如 果 中 文 的 話 呢 我 覺 得 就 比 較 單 純 | 
	ML2021_ASR_ST-9 | 
	[
  50361,
  50364,
  32085,
  21195,
  18961,
  42821,
  19866,
  12290,
  116,
  7781,
  17028,
  13824,
  16657,
  1546,
  5975,
  17174,
  9249,
  26268,
  22381,
  50625,
  50625,
  41045,
  42061,
  43338,
  3581,
  22821,
  50706,
  50706,
  42828,
  17797,
  36979,
  11,
  2166,
  11274,
  6287,
  42821,
  19866,
  8225,
  31649,
  12290,
  116,
  7781,
  11279,
  10470,
  1546,
  50871,
  50871,
  43160,
  3338,
  9249,
  26268,
  22381,
  3111,
  12621,
  50977,
  50977,
  41045,
  42061,
  43338,
  3581,
  6287,
  30146,
  51086,
  51086,
  4184,
  47123,
  1546,
  31348,
  12009,
  11,
  11284,
  12290,
  116,
  7781,
  1546,
  24227,
  11160,
  21121,
  1960,
  22977,
  51317,
  51317,
  6287,
  29436,
  33540,
  19488,
  2166,
  2855,
  20754,
  31348,
  12009,
  1546,
  13876,
  17278,
  51449,
  51449,
  36757,
  4622,
  27869,
  17174,
  11,
  42766,
  21625,
  13167,
  229,
  12290,
  116,
  7781,
  22381,
  35744,
  51618,
  51618,
  32,
  4511,
  57,
  12290,
  116,
  7781,
  27869,
  17174,
  1546,
  22381,
  35744,
  51768
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>但你可能會覺得字母這個單位太小了<|2.66|><|2.66|>那有人可能會選擇輸出英文的詞彙<|6.10|><|6.10|>英文的詞彙是用空白作為間隔的<|9.20|><|9.20|>但如果用詞彙當作輸出又太多了<|12.14|><|12.14|>所以你會發現剛才在助教投影片裡面<|14.50|><|14.50|>助教說他是用some word當作英文的單位<|18.86|><|18.86|>就有一些方法可以把英文的字首字根切出來<|22.14|><|22.14|>拿字首字根當作單位<|24.20|><|24.20|>那如果中文的話呢<|25.30|><|25.30|>我覺得就比較單純<|26.80|><|endoftext|> | |
| 
	通 常 今 天 你 可 能 就 用 中 文 的 這 個 方 塊 字 來 當 作 單 位 好 那 在 這 個 向 量 裡 面 啊 這 個 向 量 的 長 度 就 跟 中 文 裡 面 的 方 塊 字 你 希 望 機 器 可 以 輸 出 的 方 塊 字 的 數 目 是 一 樣 多 的 那 每 一 個 中 文 的 字 都 會 對 應 到 一 個 數 值 那 因 為 在 產 生 這 個 向 量 之 前 啊 你 通 常 會 先 跑 一 個 softmax 就 跟 做 分 類 一 樣 做 分 類 在 得 到 最 終 的 輸 出 前 | 
	ML2021_ASR_ST-10 | 
	[
  50361,
  50364,
  8395,
  2166,
  16657,
  6236,
  11274,
  22381,
  35744,
  6287,
  24227,
  11160,
  9455,
  7322,
  2289,
  50497,
  50497,
  4184,
  45820,
  16657,
  6236,
  21625,
  13167,
  229,
  12290,
  116,
  7781,
  27869,
  17174,
  1546,
  6716,
  252,
  7391,
  247,
  50669,
  50669,
  27869,
  17174,
  1546,
  6716,
  252,
  7391,
  247,
  1541,
  9254,
  23322,
  13558,
  11914,
  6344,
  11016,
  165,
  1206,
  1546,
  50824,
  50824,
  8395,
  13119,
  9254,
  6716,
  252,
  7391,
  247,
  13118,
  11914,
  12290,
  116,
  7781,
  17047,
  9455,
  6392,
  2289,
  50971,
  50971,
  7239,
  2166,
  6236,
  38927,
  16940,
  18888,
  3581,
  37618,
  21936,
  37094,
  25373,
  32399,
  51089,
  51089,
  37618,
  21936,
  4622,
  47046,
  9254,
  23189,
  1349,
  13118,
  11914,
  27869,
  17174,
  1546,
  24227,
  11160,
  51307,
  51307,
  3111,
  32241,
  13824,
  9249,
  11148,
  6723,
  16075,
  27869,
  17174,
  1546,
  22381,
  25444,
  22381,
  31337,
  23632,
  29741,
  51471,
  51471,
  24351,
  22381,
  25444,
  22381,
  31337,
  13118,
  11914,
  24227,
  11160,
  51574,
  51574,
  4184,
  13119,
  5975,
  17174,
  21358,
  6240,
  51629,
  51629,
  17689,
  3111,
  25174,
  24227,
  7732,
  242,
  51704
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>通常今天你可能就用中文的方塊字來當作單位<|5.00|><|5.00|>那在這個項量裡面<|6.44|><|6.44|>這個項量的長度就跟中文裡面的方塊字<|10.28|><|10.28|>你希望機器可以輸出的方塊字的數目是一樣多的<|14.96|><|14.96|>那每一個中文的字都會對應到一個數值<|20.24|><|20.24|>那因為在產生這個項量之前<|22.32|><|22.32|>你通常會先跑一個softmax<|24.80|><|24.80|>就跟做分類一樣<|26.28|><|26.28|>做分類在得到最終的輸出前<|28.76|><|endoftext|> | |
| 
	我 們 不 是 會 跑 一 個 softmax 嗎 跑 一 個 softmax 所 以 這 一 個 向 量 裡 面 的 分 數 啊 它 是 一 個 distribution 也 就 是 呢 它 這 個 向 量 裡 面 的 值 呢 它 全 部 加 起 來 總 和 呢 會 是 1 好 那 得 到 這 個 向 量 以 後 還 不 是 最 終 輸 出 的 結 果 這 個 向 量 會 給 每 一 個 中 文 的 字 一 個 分 數 那 分 數 最 高 的 那 一 個 中 文 字 它 就 是 最 終 的 輸 出 那 在 這 個 例 子 裡 面 機 的 分 數 最 高 所 以 機 呢 | 
	ML2021_ASR_ST-11 | 
	[
  50361,
  50364,
  19550,
  11279,
  12074,
  2166,
  16657,
  3111,
  9254,
  5975,
  17174,
  1546,
  9249,
  26268,
  22381,
  3763,
  13118,
  11914,
  24227,
  11160,
  50614,
  50614,
  4184,
  3581,
  6287,
  8313,
  227,
  26748,
  32399,
  50686,
  50686,
  6287,
  8313,
  227,
  26748,
  1546,
  15353,
  13127,
  3111,
  9678,
  5975,
  17174,
  32399,
  1546,
  9249,
  26268,
  22381,
  50878,
  50878,
  2166,
  29955,
  17543,
  34386,
  6723,
  12290,
  116,
  7781,
  1546,
  9249,
  26268,
  22381,
  1546,
  30622,
  11386,
  1541,
  22977,
  6392,
  1546,
  51112,
  51112,
  4184,
  23664,
  8990,
  5975,
  17174,
  1546,
  22381,
  7182,
  6236,
  2855,
  20481,
  4511,
  8990,
  30622,
  40242,
  51376,
  51376,
  4184,
  11471,
  3581,
  33299,
  8244,
  6287,
  8313,
  227,
  26748,
  32442,
  51480,
  51480,
  2166,
  19550,
  11279,
  6236,
  10108,
  32585,
  8990,
  13908,
  41167,
  51604,
  51604,
  3111,
  9678,
  10907,
  6627,
  40092,
  22977,
  51678,
  51678,
  10907,
  6627,
  40092,
  3581,
  5916,
  4511,
  8661,
  29371,
  1546,
  12290,
  116,
  7781,
  8945,
  51802
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>我們不是會跑一個softmax嗎?<|1.86|><|1.86|>跑一個softmax<|3.10|><|3.10|>所以這一個項量裡面的分數<|5.56|><|5.56|>它是一個distribution<|7.28|><|7.28|>也就是它這個項量裡面的值<|10.58|><|10.58|>它全部加起來 總和會是1<|14.08|><|14.08|>那得到這個項量以後<|16.18|><|16.18|>還不是最終輸出的結果<|18.02|><|18.02|>這個項量會給每一個中文的字一個分數<|21.16|><|21.16|>那分數最高的那一個中文字<|23.96|><|23.96|>它就是最終的輸出<|25.96|><|25.96|>在這個例子裡面<|27.32|><|27.32|><|endoftext|> | |
| 
	就 當 做 是 這 個 decoder 第 一 個 輸 出 然 後 接 下 來 你 把 機 當 做 是 decoder 新 的 input 原 來 decoder 的 input 只 有 begin 這 個 特 別 的 符 號 現 在 它 除 了 begin 以 外 它 還 有 機 作 為 它 的 input 那 機 呢 也 是 表 示 成 一 個 one-hot 的 vector 當 做 decoder 的 輸 入 所 以 decoder 現 在 它 有 兩 個 輸 入 一 個 是 begin 這 個 符 號 一 個 是 機 根 據 這 兩 個 輸 入 呢 它 就 要 得 到 一 個 輸 出 | 
	ML2021_ASR_ST-12 | 
	[
  50361,
  50364,
  5884,
  7296,
  6236,
  32585,
  8990,
  13908,
  41167,
  7434,
  30,
  50457,
  50457,
  32585,
  8990,
  13908,
  41167,
  50519,
  50519,
  7239,
  2664,
  8990,
  8313,
  227,
  26748,
  32399,
  1546,
  6627,
  30622,
  50642,
  50642,
  11284,
  1541,
  8990,
  42649,
  30783,
  50728,
  50728,
  6404,
  5620,
  11284,
  6287,
  8313,
  227,
  26748,
  32399,
  1546,
  40242,
  50893,
  50893,
  11284,
  38714,
  9990,
  21670,
  220,
  26575,
  12565,
  6236,
  1541,
  16,
  51068,
  51068,
  4184,
  5916,
  4511,
  6287,
  8313,
  227,
  26748,
  3588,
  5661,
  51173,
  51173,
  7824,
  7296,
  8661,
  29371,
  12290,
  116,
  7781,
  1546,
  35181,
  51265,
  51265,
  6287,
  8313,
  227,
  26748,
  6236,
  17798,
  23664,
  8990,
  5975,
  17174,
  1546,
  22381,
  8990,
  6627,
  30622,
  51422,
  51422,
  4184,
  6627,
  30622,
  8661,
  12979,
  1546,
  4184,
  8990,
  5975,
  17174,
  22381,
  51562,
  51562,
  11284,
  5620,
  8661,
  29371,
  1546,
  12290,
  116,
  7781,
  51662,
  51662,
  3581,
  6287,
  17797,
  7626,
  32399,
  51730,
  51730
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>就當作是這個Decoder第一個輸出<|3.14|><|3.14|>然後接下來你把G當作是Decoder新的input<|8.48|><|8.48|>原來Decoder的input只有begin這個特別的符號<|11.52|><|11.52|>現在他除了begin以外<|13.32|><|13.32|>他還有G作為他的input<|15.28|><|15.28|>那G也是表示成一個1-hard vector<|18.68|><|18.68|>當作Decoder的輸入<|21.16|><|21.16|>所以Decoder現在還有兩個輸入<|23.06|><|23.06|>一個是begin這個符號,一個是G<|25.26|><|25.26|>根據這兩個輸入呢<|26.60|><|26.60|>他就要得到一個輸出<|28.56|><|endoftext|> | |
| 
	它 輸 出 一 個 藍 色 的 向 量 根 據 這 個 藍 色 的 向 量 裡 面 給 每 一 個 中 文 的 字 的 分 數 那 我 們 會 決 定 第 二 個 輸 出 是 什 麼 誰 哪 一 個 字 的 分 數 最 高 它 就 是 輸 出 器 的 假 設 器 的 分 數 最 高 那 器 就 是 輸 出 那 decoder 接 下 來 會 拿 器 當 作 輸 入 然 後 現 在 decoder 看 到 了 begin 看 到 了 機 看 到 了 器 那 它 接 下 來 呢 還 要 再 決 定 接 下 來 要 輸 出 什 麼 那 它 可 能 呢 就 輸 出 學 | 
	ML2021_ASR_ST-13 | 
	[
  50361,
  50364,
  3111,
  13118,
  11914,
  1541,
  6287,
  35,
  3045,
  19866,
  40760,
  12290,
  116,
  7781,
  50521,
  50521,
  10213,
  40012,
  2166,
  16075,
  38,
  13118,
  11914,
  1541,
  35,
  3045,
  19866,
  12560,
  1546,
  259,
  2582,
  50788,
  50788,
  19683,
  3763,
  35,
  3045,
  19866,
  1546,
  259,
  2582,
  35244,
  650,
  1494,
  6287,
  38446,
  1546,
  5437,
  99,
  18616,
  50940,
  50940,
  12648,
  5000,
  32999,
  2289,
  650,
  1494,
  3588,
  12022,
  51030,
  51030,
  5000,
  15569,
  38,
  11914,
  6344,
  31309,
  259,
  2582,
  51128,
  51128,
  4184,
  38,
  22021,
  40053,
  11336,
  8990,
  16,
  12,
  21491,
  8062,
  51298,
  51298,
  13118,
  11914,
  35,
  3045,
  19866,
  1546,
  12290,
  116,
  14028,
  51422,
  51422,
  7239,
  35,
  3045,
  19866,
  12648,
  15569,
  34623,
  12290,
  116,
  14028,
  51517,
  51517,
  8990,
  1541,
  650,
  1494,
  6287,
  5437,
  99,
  18616,
  11,
  8990,
  1541,
  38,
  51627,
  51627,
  31337,
  36841,
  2664,
  34623,
  12290,
  116,
  14028,
  6240,
  51694,
  51694,
  5000,
  3111,
  4275,
  5916,
  4511,
  8990,
  12290,
  116,
  7781,
  51792
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>它輸出一個藍色的項量<|2.00|><|2.00|>根據這個藍色的項量裡面<|3.50|><|3.50|>給每一個中文的字的分數<|6.00|><|6.00|>那我們會決定第二個輸出是什麼<|9.20|><|9.20|>誰哪一個字的分數最高<|11.00|><|11.00|>它就是輸出<|12.20|><|12.20|>那氣的 假如氣的分數最高<|14.20|><|14.20|>那氣就是輸出<|15.70|><|15.70|>那Decoder接下來會拿氣當作輸入<|18.50|><|18.50|>然後現在Decoder看到了begin<|20.90|><|20.90|>看到了機 看到了氣<|22.60|><|22.60|>那它接下來還要再決定<|24.60|><|24.60|>接下來要輸出什麼<|26.00|><|26.00|>那它可能就輸出學<|28.20|><|endoftext|> | |
| 
	這 一 個 過 程 就 反 覆 的 持 續 下 去 機 器 輸 入 學 以 後 學 會 再 被 當 作 輸 入 所 以 現 在 decode 呢 它 看 到 了 begin 機 器 還 有 學 那 encoder 這 邊 其 實 也 有 輸 入 啦 那 我 們 等 一 下 再 講 encoder 的 輸 入 decoder 是 怎 麼 處 理 的 所 以 decoder 看 到 encoder 這 邊 的 輸 入 看 到 機 看 到 器 看 到 學 決 定 接 下 來 呢 要 輸 出 習 它 會 輸 出 一 個 向 量 這 個 向 量 裡 面 習 這 個 中 文 字 的 分 數 最 高 的 所 以 它 就 輸 出 習 | 
	ML2021_ASR_ST-14 | 
	[
  50361,
  50364,
  11284,
  12290,
  116,
  7781,
  8990,
  21782,
  235,
  17673,
  1546,
  8313,
  227,
  26748,
  50464,
  50464,
  31337,
  36841,
  6287,
  21782,
  235,
  17673,
  1546,
  8313,
  227,
  26748,
  32399,
  50539,
  50539,
  17798,
  23664,
  8990,
  5975,
  17174,
  1546,
  22381,
  1546,
  6627,
  30622,
  50664,
  50664,
  46714,
  6236,
  33540,
  12088,
  49085,
  12290,
  116,
  7781,
  35851,
  50824,
  50824,
  20757,
  17028,
  8990,
  22381,
  1546,
  6627,
  30622,
  8661,
  12979,
  50914,
  50914,
  11284,
  5620,
  12290,
  116,
  7781,
  50974,
  50974,
  4184,
  24090,
  1546,
  220,
  31706,
  8238,
  24090,
  1546,
  6627,
  30622,
  8661,
  12979,
  51074,
  51074,
  4184,
  24090,
  5620,
  12290,
  116,
  7781,
  51149,
  51149,
  4184,
  35,
  3045,
  19866,
  40012,
  6236,
  24351,
  24090,
  13118,
  11914,
  12290,
  116,
  14028,
  51289,
  51289,
  10213,
  12648,
  35,
  3045,
  19866,
  18032,
  2289,
  650,
  1494,
  51409,
  51409,
  18032,
  2289,
  17543,
  220,
  18032,
  2289,
  24090,
  51494,
  51494,
  4184,
  11284,
  40012,
  7824,
  4275,
  8623,
  33540,
  12088,
  51594,
  51594,
  40012,
  4275,
  12290,
  116,
  7781,
  7598,
  51664,
  51664,
  4184,
  11284,
  16657,
  3111,
  12290,
  116,
  7781,
  21372,
  51774
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>這個過程就反覆的持續下去<|3.44|><|3.44|>機器輸入學以後,學會再被當作輸入<|6.88|><|6.88|>所以現在Decoder看到了begin、機、器、學<|11.52|><|11.52|>那Encoder這邊其實也有輸入啦<|13.68|><|13.68|>那我們等一下再講Encoder的輸入<|15.68|><|15.68|>Decoder是怎麼處理的<|17.20|><|17.20|>所以Decoder看到Encoder這邊的輸入<|19.60|><|19.60|>看到機、看到器、看到學<|21.60|><|21.60|>決定接下來要輸出習<|24.08|><|24.08|>它會輸出一個項量<|25.12|><|25.12|>這個項量裡面習這個中文字的分數最高的<|28.00|><|28.00|>所以它就輸出習<|29.44|><|endoftext|> | |
| 
	然 後 這 個 process 呢 就 反 覆 持 續 下 去 那 這 邊 有 一 個 關 鍵 的 地 方 我 們 特 別 用 紅 色 的 虛 線 把 它 標 出 來 也 就 是 說 decoder 看 到 的 輸 入 其 實 是 它 在 前 一 個 時 間 點 自 己 的 輸 出 decoder 會 把 自 己 的 輸 出 當 做 接 下 來 的 輸 入 會 把 自 己 的 輸 出 當 做 接 下 來 的 輸 入 所 以 當 我 們 decoder 在 產 生 一 個 句 子 的 時 候 它 其 實 有 可 能 看 到 錯 誤 的 東 西 因 為 它 看 到 的 是 自 己 的 輸 出 嘛 | 
	ML2021_ASR_ST-15 | 
	[
  50361,
  50364,
  6287,
  8816,
  29649,
  3111,
  22138,
  2888,
  228,
  1546,
  17694,
  29583,
  34473,
  50536,
  50536,
  17543,
  34386,
  12290,
  116,
  14028,
  21372,
  3588,
  5661,
  11,
  21372,
  6236,
  8623,
  23238,
  13118,
  11914,
  12290,
  116,
  14028,
  50708,
  50708,
  7239,
  12648,
  35,
  3045,
  19866,
  18032,
  2289,
  650,
  1494,
  1231,
  17543,
  1231,
  34386,
  1231,
  21372,
  50940,
  50940,
  4184,
  16257,
  66,
  19866,
  22821,
  14139,
  6404,
  2412,
  12290,
  116,
  14028,
  9724,
  51048,
  51048,
  46714,
  24554,
  8623,
  11932,
  16257,
  66,
  19866,
  1546,
  12290,
  116,
  14028,
  51148,
  51148,
  35,
  3045,
  19866,
  1541,
  11614,
  39289,
  13876,
  1546,
  51224,
  51224,
  7239,
  35,
  3045,
  19866,
  18032,
  16257,
  66,
  19866,
  22821,
  1546,
  12290,
  116,
  14028,
  51344,
  51344,
  18032,
  17543,
  1231,
  18032,
  34386,
  1231,
  18032,
  21372,
  51444,
  51444,
  33540,
  12088,
  40012,
  4275,
  12290,
  116,
  7781,
  34025,
  51568,
  51568,
  11284,
  6236,
  12290,
  116,
  7781,
  8990,
  8313,
  227,
  26748,
  51620,
  51620,
  6287,
  8313,
  227,
  26748,
  32399,
  34025,
  6287,
  5975,
  17174,
  22381,
  1546,
  6627,
  30622,
  8661,
  12979,
  1546,
  51764,
  51764,
  7239,
  11284,
  3111,
  12290,
  116,
  7781,
  34025,
  51836
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>這個process就反覆持續下去<|3.00|><|3.00|>那這邊有一個關鍵的地方<|4.50|><|4.50|>我們特別用紅色的虛線把它標出來<|6.86|><|6.86|>也就是說decoder看到的輸入<|9.06|><|9.06|>其實是他在前一個時間點自己的輸出<|14.00|><|14.00|>decoder會把自己的輸出當作接下來的輸入<|17.80|><|17.80|>會把自己的輸出當作接下來的輸入<|21.30|><|21.30|>所以當我們decoder在產生一個句子的時候<|24.00|><|24.00|>他其實有可能看到錯誤的東西<|27.40|><|27.40|>因為他看到的是自己的輸出嘛<|29.40|><|endoftext|> | |
| 
	那 如 果 今 天 decoder 有 語 音 辨 識 的 錯 誤 它 把 機 器 的 器 辨 識 錯 成 天 氣 的 氣 那 接 下 來 decoder 就 會 看 到 錯 誤 的 辨 識 結 果 它 還 是 要 想 辦 法 根 據 錯 誤 的 辨 識 結 果 產 生 它 想 要 產 生 的 期 待 是 正 確 的 輸 出 那 你 可 能 會 覺 得 說 讓 decoder 看 到 錯 誤 的 輸 入 讓 decoder 看 到 自 己 產 生 出 來 的 錯 誤 的 輸 入 再 被 decoder 自 己 吃 進 去 會 不 會 造 成 問 題 呢 會 不 會 造 成 error propagation 的 問 題 呢 | 
	ML2021_ASR_ST-16 | 
	[
  50361,
  50364,
  6287,
  41075,
  3111,
  22138,
  2888,
  228,
  17694,
  29583,
  34473,
  50514,
  50514,
  4184,
  22821,
  2412,
  8990,
  14899,
  41668,
  113,
  1546,
  30146,
  50589,
  50589,
  5884,
  38446,
  9254,
  33487,
  17673,
  1546,
  12026,
  249,
  31699,
  42061,
  46299,
  29741,
  50707,
  50707,
  6404,
  26222,
  42821,
  19866,
  18032,
  1546,
  12290,
  116,
  14028,
  50817,
  50817,
  14139,
  1541,
  5000,
  3581,
  8945,
  8990,
  20788,
  8216,
  17645,
  1546,
  12290,
  116,
  7781,
  51064,
  51064,
  42821,
  19866,
  6236,
  16075,
  17645,
  1546,
  12290,
  116,
  7781,
  13118,
  11914,
  40012,
  1546,
  12290,
  116,
  14028,
  51254,
  51254,
  6236,
  16075,
  17645,
  1546,
  12290,
  116,
  7781,
  13118,
  11914,
  40012,
  1546,
  12290,
  116,
  14028,
  51429,
  51429,
  7239,
  13118,
  5884,
  42821,
  19866,
  3581,
  33299,
  8244,
  8990,
  34592,
  7626,
  20643,
  51564,
  51564,
  5000,
  14139,
  2412,
  16657,
  18032,
  13133,
  3549,
  97,
  1546,
  26978,
  51734,
  51734,
  11471,
  5000,
  18032,
  24620,
  17645,
  1546,
  12290,
  116,
  7781,
  20722,
  51834
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>那如果今天decoder有語音辨識的錯誤<|3.14|><|3.14|>他把機器的氣辨識錯成天氣的氣<|6.10|><|6.10|>那接下來decoder就會看到錯誤的辨識結果<|10.40|><|10.40|>他還是要想辦法根據錯誤的辨識結果產生<|14.32|><|14.32|>他想要產生的期待是正確的輸出<|17.24|><|17.24|>那你可能會覺得說<|18.22|><|18.22|>讓decoder看到錯誤的輸入<|20.18|><|20.18|>讓decoder看到自己產生出來的錯誤的輸入<|23.36|><|23.36|>再被decoder自己吃進去<|25.26|><|25.26|>會不會造成問題呢<|27.18|><|27.18|><|endoftext|> | |
| 
	所 謂 error propagation 的 問 題 就 是 一 步 錯 步 步 錯 這 樣 就 是 在 這 個 地 方 如 果 不 小 心 把 機 器 的 器 不 小 心 寫 成 天 氣 的 氣 會 不 會 接 下 來 就 整 個 句 子 都 壞 掉 了 都 沒 有 辦 法 再 產 生 正 確 的 詞 彙 了 有 可 能 那 這 個 等 一 下 我 們 最 後 會 稍 微 講 一 下 這 個 問 題 要 怎 麼 處 理 我 們 現 在 呢 先 無 視 這 個 問 題 繼 續 走 下 去 好 那 我 們 那 我 們 來 看 一 下 這 個 decoder 啊 | 
	ML2021_ASR_ST-17 | 
	[
  50361,
  50364,
  4184,
  13119,
  12074,
  42821,
  19866,
  2412,
  31348,
  18034,
  9830,
  101,
  43143,
  1546,
  13133,
  3549,
  97,
  50521,
  50521,
  5000,
  16075,
  17543,
  34386,
  1546,
  24090,
  9830,
  101,
  43143,
  13133,
  11336,
  6135,
  24090,
  1546,
  24090,
  50669,
  50669,
  4184,
  40012,
  42821,
  19866,
  47778,
  18032,
  13133,
  3549,
  97,
  1546,
  9830,
  101,
  43143,
  35181,
  50884,
  50884,
  5000,
  25583,
  4275,
  7093,
  40072,
  31337,
  36841,
  13133,
  3549,
  97,
  1546,
  9830,
  101,
  43143,
  35181,
  33299,
  8244,
  51080,
  51080,
  5000,
  7093,
  4275,
  33299,
  8244,
  1546,
  16786,
  18390,
  1541,
  15789,
  24293,
  1546,
  12290,
  116,
  7781,
  51226,
  51226,
  4184,
  2166,
  16657,
  6236,
  11274,
  4622,
  51275,
  51275,
  21195,
  42821,
  19866,
  18032,
  13133,
  3549,
  97,
  1546,
  12290,
  116,
  14028,
  51373,
  51373,
  21195,
  42821,
  19866,
  18032,
  17645,
  33299,
  8244,
  29741,
  1546,
  13133,
  3549,
  97,
  1546,
  12290,
  116,
  14028,
  51532,
  51532,
  8623,
  23238,
  42821,
  19866,
  17645,
  10123,
  18214,
  6734,
  51627,
  51627,
  6236,
  21121,
  37583,
  11336,
  17197,
  6240,
  51723,
  51723
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>所謂Error Propagation的問題就是<|2.00|><|2.00|>一步錯 步步錯<|4.50|><|4.50|>就是在這個地方<|5.56|><|5.56|>如果不小心把機器的氣<|7.56|><|7.56|>不小心寫成天氣的氣<|9.56|><|9.56|>會不會接下來就整個句子都壞掉了<|12.80|><|12.80|>都沒有辦法再產生正確的詞彙了<|15.20|><|15.20|>有可能<|16.06|><|16.06|>那這個等一下我們最後會稍微講一下<|18.96|><|18.96|>這個問題要怎麼處理<|20.96|><|20.96|>我們現在先無視這個問題<|23.36|><|23.36|>繼續走下去<|24.66|><|24.66|>那我們來看一下這個Decoder<|27.96|><|endoftext|> | |
| 
	它 內 部 的 結 構 長 什 麼 樣 子 那 我 們 這 邊 呢 把 encoder 的 部 分 先 暫 時 省 略 掉 那 在 transformer 裡 面 decoder 的 結 構 呢 長 得 是 這 個 樣 子 的 看 起 來 有 點 複 雜 比 encoder 還 稍 微 複 雜 一 點 那 我 們 現 在 先 把 encoder 跟 decoder 放 在 一 起 稍 微 比 較 一 下 它 們 之 間 的 差 異 那 你 會 發 現 說 如 果 我 們 把 decoder 中 間 這 一 塊 中 間 這 一 塊 把 它 蓋 起 來 | 
	ML2021_ASR_ST-18 | 
	[
  50361,
  50364,
  5966,
  4802,
  224,
  28135,
  2874,
  21944,
  559,
  399,
  1546,
  17197,
  5620,
  50464,
  50464,
  2257,
  31429,
  13133,
  220,
  31429,
  31429,
  13133,
  50589,
  50589,
  5620,
  3581,
  6287,
  30146,
  50642,
  50642,
  13119,
  1960,
  34021,
  16075,
  17543,
  34386,
  1546,
  24090,
  50742,
  50742,
  1960,
  34021,
  4510,
  104,
  11336,
  6135,
  24090,
  1546,
  24090,
  50842,
  50842,
  6236,
  21121,
  40012,
  3111,
  27662,
  3338,
  34592,
  7626,
  7182,
  12829,
  252,
  29327,
  2289,
  51004,
  51004,
  7182,
  6963,
  40072,
  8623,
  33299,
  8244,
  15789,
  24293,
  1546,
  6716,
  252,
  7391,
  247,
  2289,
  51124,
  51124,
  2412,
  16657,
  51167,
  51167,
  4184,
  6287,
  24554,
  5884,
  20578,
  6236,
  10415,
  235,
  39152,
  11932,
  8861,
  51312,
  51312,
  6287,
  17197,
  4275,
  11614,
  39289,
  13876,
  51412,
  51412,
  5884,
  12648,
  10108,
  16976,
  27333,
  6287,
  17197,
  51532,
  51532,
  38459,
  9575,
  34473,
  51597,
  51597,
  46714,
  3763,
  28324,
  6287,
  35,
  3045,
  19866,
  51762
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>它內部的結構長什麼樣子<|3.32|><|3.32|>那我們這邊呢<|4.22|><|4.22|>把Encoder的部分先暫時省略掉<|7.16|><|7.16|>那在Transformer裡面<|8.76|><|8.76|>Decoder的結構呢<|10.08|><|10.08|>長的是這個樣子的<|11.80|><|11.80|>看起來有點複雜<|12.98|><|12.98|>比Encoder還稍微複雜一點<|15.44|><|15.44|>那我們現在先把Encoder跟Decoder放在一起<|18.88|><|18.88|>稍微比較一下它們之間的差異<|21.68|><|21.68|>那你會發現說<|22.88|><|22.88|>如果我們把Decoder中間這一塊<|25.40|><|25.40|>中間這一塊把它蓋起來<|27.60|><|endoftext|> | |
| 
	其 實 encoder 跟 decoder 並 沒 有 那 麼 大 的 差 別 你 看 encoder 這 邊 multi-head attention 然 後 add & norm feed forward add & norm 重 複 n 次 decoder 其 實 也 是 一 樣 當 我 們 把 中 間 這 一 塊 遮 起 來 以 後 我 們 等 一 下 再 講 遮 起 來 這 一 塊 裡 面 做 了 什 麼 事 但 當 我 們 把 中 間 這 塊 遮 起 來 以 後 欸 那 decoder 也 是 有 一 個 multi-head attention add & norm 然 後 feed forward 然 後 add & norm 所 以 encoder 跟 decoder | 
	ML2021_ASR_ST-19 | 
	[
  50361,
  50364,
  11284,
  28472,
  13470,
  1546,
  17144,
  43362,
  15353,
  7598,
  6180,
  7626,
  50530,
  50530,
  46714,
  22821,
  6240,
  50575,
  50575,
  16075,
  16257,
  66,
  19866,
  1546,
  32174,
  10108,
  23826,
  104,
  6611,
  2862,
  223,
  6904,
  98,
  29327,
  50722,
  50722,
  4184,
  3581,
  33339,
  837,
  260,
  32399,
  50802,
  50802,
  35,
  3045,
  19866,
  1546,
  17144,
  43362,
  6240,
  50868,
  50868,
  15353,
  24620,
  6287,
  6180,
  7626,
  1546,
  50954,
  50954,
  4200,
  21670,
  42440,
  164,
  97,
  229,
  6306,
  250,
  51013,
  51013,
  11706,
  16257,
  66,
  19866,
  7824,
  10415,
  235,
  39152,
  164,
  97,
  229,
  6306,
  250,
  19202,
  51136,
  51136,
  46714,
  12648,
  10108,
  16075,
  16257,
  66,
  19866,
  9678,
  35,
  3045,
  19866,
  12744,
  3581,
  29567,
  51308,
  51308,
  10415,
  235,
  39152,
  25174,
  8861,
  11284,
  4623,
  9574,
  11016,
  1546,
  21679,
  6904,
  108,
  51448,
  51448,
  4184,
  2166,
  6236,
  38927,
  4622,
  51508,
  51508,
  13119,
  5884,
  16075,
  35,
  3045,
  19866,
  5975,
  11016,
  32260,
  26268,
  51634,
  51634,
  5975,
  11016,
  32260,
  26268,
  42061,
  39198,
  233,
  21670,
  51744
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>其實Encoder跟Decoder並沒有那麼大的差別<|4.48|><|4.48|>你看Encoder這邊<|5.84|><|5.84|>Multi-head attention<|7.38|><|7.38|>然後Add and None<|8.78|><|8.78|>Feed forward<|9.58|><|9.58|>Add and None<|10.48|><|10.48|>重複N次<|11.32|><|11.32|>Decoder其實也是一樣<|12.62|><|12.62|>當我們把中間這塊遮起來以後<|14.72|><|14.72|>我們等一下再講遮起來這塊裡面做了什麼事<|17.12|><|17.12|>但當我們把中間這塊遮起來以後<|19.66|><|19.66|>那Decoder也是有一個Multi-head attention<|23.36|><|23.36|>Add and None<|24.16|><|24.16|>然後Feed forward<|25.36|><|25.36|>然後Add and None<|27.16|><|27.16|>所以Encoder跟Decoder<|29.00|><|endoftext|> | |
| 
	其 實 並 沒 有 非 常 大 的 差 別 除 了 中 間 這 一 塊 不 一 樣 的 地 方 被 遮 起 來 的 地 方 以 外 其 實 encoder 跟 decoder 是 一 樣 的 那 只 是 最 後 呢 我 們 可 能 會 再 做 一 個 softmax 使 得 它 的 輸 出 變 成 一 個 機 率 那 這 邊 有 一 個 稍 微 不 一 樣 的 地 方 是 在 decoder 這 邊 啊 multi-head attention 這 一 個 block 上 面 還 加 了 一 個 masked 這 個 masked 是 什 麼 意 思 呢 這 個 masked 的 意 思 是 這 樣 子 的 這 是 我 們 原 來 的 self-attention | 
	ML2021_ASR_ST-20 | 
	[
  50361,
  50364,
  14139,
  16257,
  66,
  19866,
  9678,
  35,
  3045,
  19866,
  35934,
  6963,
  20504,
  39156,
  21679,
  16158,
  50588,
  50588,
  16529,
  16257,
  66,
  19866,
  22821,
  50656,
  50656,
  44,
  723,
  72,
  12,
  1934,
  3202,
  50733,
  50733,
  10213,
  36189,
  293,
  14492,
  50803,
  50803,
  37,
  5033,
  2128,
  50843,
  50843,
  36189,
  293,
  14492,
  50888,
  50888,
  12624,
  164,
  97,
  229,
  45,
  9487,
  50930,
  50930,
  35,
  3045,
  19866,
  14139,
  22021,
  22977,
  50995,
  50995,
  13118,
  5884,
  16075,
  5975,
  11016,
  2664,
  26268,
  3330,
  106,
  21670,
  3588,
  5661,
  51100,
  51100,
  5884,
  24554,
  8623,
  11932,
  3330,
  106,
  21670,
  2664,
  26268,
  32399,
  10907,
  2289,
  7598,
  6973,
  51220,
  51220,
  8395,
  13118,
  5884,
  16075,
  5975,
  11016,
  2664,
  26268,
  3330,
  106,
  21670,
  3588,
  5661,
  51347,
  51347,
  4184,
  35,
  3045,
  19866,
  22021,
  2412,
  8990,
  44,
  723,
  72,
  12,
  1934,
  3202,
  51532,
  51532,
  36189,
  293,
  14492,
  51572,
  51572,
  10213,
  37,
  5033,
  2128,
  51632,
  51632,
  10213,
  36189,
  293,
  14492,
  51722,
  51722,
  7239,
  16257,
  66,
  19866,
  9678,
  35,
  3045,
  19866,
  51814
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>其實並沒有非常大的差別<|2.10|><|2.10|>除了中間這塊不一樣的地方<|4.20|><|4.20|>被遮起來的地方以外<|5.40|><|5.40|>其實Encoder跟Decoder是一樣的<|8.80|><|8.80|>那只是最後呢<|9.80|><|9.80|>我們可能會再做一個SolveMask<|11.70|><|11.70|>使得它的輸出變成一個機率<|14.70|><|14.70|>那這邊有一個稍微不一樣的地方是<|17.00|><|17.00|>在Decoder這邊<|18.90|><|18.90|>MultiHeadAttention這個block上面<|21.80|><|21.80|>還加了一個Mask<|24.00|><|24.00|>這個Mask是什麼意思呢<|25.90|><|25.90|>這個Mask的意思是這樣子<|27.50|><|27.50|><|endoftext|> | |
| 
	input 一 排 vector output 另 外 一 排 vector 這 一 排 vector 每 一 個 輸 出 都 要 看 過 完 整 的 input 以 後 才 做 決 定 所 以 輸 出 b1 的 時 候 其 實 是 根 據 a1 到 a4 所 有 的 資 訊 去 輸 出 b1 當 我 們 把 self-attention 轉 成 masked attention 的 時 候 它 的 不 同 點 在 哪 裡 呢 它 的 不 同 點 是 現 在 我 們 不 能 再 看 右 邊 的 部 分 也 就 是 產 生 b1 的 時 候 我 們 只 能 考 慮 a1 的 資 訊 | 
	ML2021_ASR_ST-21 | 
	[
  50361,
  50364,
  14139,
  35934,
  6963,
  14392,
  39156,
  21679,
  16158,
  50469,
  50469,
  32999,
  2289,
  5975,
  11016,
  2664,
  26268,
  1960,
  22977,
  1546,
  30146,
  50574,
  50574,
  23238,
  3330,
  106,
  21670,
  1546,
  30146,
  3588,
  12022,
  50634,
  50634,
  14139,
  16257,
  66,
  19866,
  9678,
  35,
  3045,
  19866,
  1541,
  22977,
  1546,
  50804,
  50804,
  4184,
  36859,
  20578,
  6240,
  50854,
  50854,
  5884,
  16657,
  6236,
  8623,
  10907,
  8990,
  50,
  37361,
  44,
  3863,
  50949,
  50949,
  22982,
  5916,
  45224,
  12290,
  116,
  7781,
  26327,
  11336,
  8990,
  17543,
  44866,
  51099,
  51099,
  4184,
  22821,
  2412,
  8990,
  10415,
  235,
  39152,
  1960,
  22977,
  1546,
  30146,
  1541,
  51214,
  51214,
  3581,
  35,
  3045,
  19866,
  22821,
  51309,
  51309,
  44,
  723,
  72,
  39,
  2056,
  38151,
  1251,
  6287,
  28830,
  49750,
  51454,
  51454,
  7824,
  9990,
  2289,
  8990,
  44,
  3863,
  51564,
  51564,
  6287,
  44,
  3863,
  35851,
  16697,
  6240,
  51659,
  51659,
  6287,
  44,
  3863,
  1546,
  16697,
  1541,
  24842,
  51739,
  51739
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>Input一排vector, output另外一排vector<|2.94|><|2.94|>這一排vector每一個輸出都要看過完整的input以後才做決定<|8.64|><|8.64|>所以輸出B1的時候其實是根據A1到A4所有的資訊去輸出B1<|14.84|><|14.84|>當我們把Cell Attention轉成Mask Attention的時候<|18.78|><|18.78|>它的不同點在哪裡呢<|20.54|><|20.54|>它的不同點是現在我們不能再看右邊的部分<|25.16|><|25.16|>也就是產生B1的時候我們只能考慮A1的資訊<|28.96|><|endoftext|> | |
| 
	你 不 能 夠 再 考 慮 a2 a3 a4 產 生 b2 的 時 候 你 只 能 考 慮 a1 a2 的 資 訊 不 能 再 考 慮 a3 a4 的 資 訊 產 生 b3 的 時 候 你 就 不 能 考 慮 a4 的 資 訊 產 生 b4 的 時 候 你 可 以 用 整 個 input sequence 的 資 訊 這 個 就 是 masked 的 self-attention 講 得 更 具 體 一 點 你 做 的 事 情 是 這 樣 當 我 們 要 產 生 b2 的 時 候 我 們 只 拿 b2 的 我 們 只 拿 第 二 個 位 置 的 query | 
	ML2021_ASR_ST-22 | 
	[
  50361,
  50364,
  4575,
  2582,
  2257,
  44647,
  303,
  1672,
  11,
  5598,
  26202,
  2257,
  44647,
  303,
  1672,
  50511,
  50511,
  32260,
  44647,
  303,
  1672,
  23664,
  8990,
  12290,
  116,
  7781,
  7182,
  4275,
  4200,
  8816,
  14128,
  27662,
  1546,
  259,
  2582,
  3588,
  5661,
  18888,
  10907,
  33540,
  12088,
  50796,
  50796,
  7239,
  12290,
  116,
  7781,
  33,
  16,
  20643,
  14139,
  1541,
  31337,
  36841,
  32,
  16,
  4511,
  32,
  19,
  39300,
  1546,
  35380,
  5396,
  232,
  6734,
  12290,
  116,
  7781,
  33,
  16,
  51106,
  51106,
  13118,
  5884,
  16075,
  34,
  898,
  31858,
  32739,
  11336,
  44,
  3863,
  31858,
  20643,
  51303,
  51303,
  45224,
  47123,
  8216,
  3581,
  37054,
  6240,
  51391,
  51391,
  45224,
  47123,
  8216,
  1541,
  12648,
  5884,
  28590,
  8623,
  4200,
  22060,
  14901,
  1546,
  32174,
  51622,
  51622,
  6404,
  5620,
  33299,
  8244,
  33,
  16,
  20643,
  5884,
  14003,
  8225,
  26504,
  12358,
  106,
  32,
  16,
  1546,
  35380,
  5396,
  232,
  51812
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>你不能夠再考慮A2、A3、A4<|2.60|><|2.60|>產生B2的時候<|3.88|><|3.88|>你只能考慮A1、A2的資訊<|6.24|><|6.24|>不能再考慮A3、A4的資訊<|8.40|><|8.40|>產生B3的時候<|10.08|><|10.08|>你就不能考慮A4的資訊<|12.00|><|12.00|>產生B4的時候<|13.24|><|13.24|>你可以用整個input sequence的資訊<|15.80|><|15.80|>這個就是Mask的Self-Attention<|18.76|><|18.76|>講得更具體一點<|20.28|><|20.28|>你做的事情是這樣<|21.88|><|21.88|>當我們要產生B2的時候<|23.76|><|23.76|>我們只拿B2的<|26.08|><|26.08|>我們只拿第二個位置的Query<|28.88|><|endoftext|> | |
| 
	去 跟 第 一 個 位 置 的 key 和 第 二 個 位 置 的 key 去 計 算 attention 第 三 個 位 置 跟 第 四 個 位 置 就 不 管 它 不 去 計 算 attention 我 們 這 樣 子 不 去 管 這 個 a2 右 邊 的 地 方 只 考 慮 a1 跟 a2 只 考 慮 q1 q2 只 考 慮 k1 k2 q2 只 跟 k1 跟 k2 去 計 算 attention 然 後 最 後 只 計 算 v1 跟 v2 的 weighted sum | 
	ML2021_ASR_ST-23 | 
	[
  50361,
  50364,
  2166,
  28590,
  31649,
  8623,
  26504,
  12358,
  106,
  32,
  17,
  1231,
  32,
  18,
  1231,
  32,
  19,
  50494,
  50494,
  33299,
  8244,
  33,
  17,
  20643,
  50558,
  50558,
  2166,
  14003,
  8225,
  26504,
  12358,
  106,
  32,
  16,
  1231,
  32,
  17,
  1546,
  35380,
  5396,
  232,
  50676,
  50676,
  28590,
  8623,
  26504,
  12358,
  106,
  32,
  18,
  1231,
  32,
  19,
  1546,
  35380,
  5396,
  232,
  50784,
  50784,
  33299,
  8244,
  33,
  18,
  20643,
  50868,
  50868,
  41045,
  28590,
  26504,
  12358,
  106,
  32,
  19,
  1546,
  35380,
  5396,
  232,
  50964,
  50964,
  33299,
  8244,
  33,
  19,
  20643,
  51026,
  51026,
  42766,
  9254,
  27662,
  3338,
  259,
  2582,
  8310,
  1546,
  35380,
  5396,
  232,
  51154,
  51154,
  6287,
  5620,
  44,
  3863,
  1546,
  50,
  1967,
  12,
  38151,
  1251,
  51302,
  51302,
  11932,
  5916,
  19002,
  39806,
  23987,
  19202,
  51378,
  51378,
  2166,
  10907,
  1546,
  24675,
  49603,
  51458,
  51458,
  13118,
  5884,
  4275,
  33299,
  8244,
  33,
  17,
  20643,
  51552,
  51552,
  5884,
  14003,
  24351,
  33,
  17,
  1546,
  51668,
  51668,
  5884,
  14003,
  24351,
  49085,
  11160,
  34719,
  1546,
  35550,
  51808
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>去跟第一個位置的Key和第二個位置的Key去計算Attention<|6.08|><|6.08|>第三個位置跟第四個位置就不管它<|9.80|><|9.80|>不去計算Attention<|12.28|><|12.28|>我們這樣子不去管A2右邊的地方<|17.34|><|17.34|>只考慮A1跟A2<|19.32|><|19.32|>只考慮Q1、Q2<|21.48|><|21.48|>只考慮K1、K2<|23.16|><|23.16|>Q2只跟K1跟K2去計算Attention<|26.02|><|26.02|>最後只計算V1跟V2的Weighted Sum<|28.76|><|endoftext|> | |
| 
	然 後 當 我 們 輸 出 這 個 b2 的 時 候 b2 就 只 考 慮 了 a1 跟 a2 就 沒 有 考 慮 到 a3 跟 a4 那 為 什 麼 會 這 樣 呢 為 什 麼 需 要 加 masked 呢 這 件 事 情 其 實 非 常 地 直 覺 怎 麼 說 你 想 想 看 我 們 一 開 始 decoder 的 運 作 方 式 它 是 一 個 一 個 輸 出 它 的 輸 出 是 一 個 一 個 產 生 的 所 以 是 先 有 a1 再 有 a2 再 有 a3 再 有 a4 這 跟 原 來 的 self-attention 不 一 樣 原 來 的 self-attention | 
	ML2021_ASR_ST-24 | 
	[
  50361,
  50364,
  6734,
  9678,
  40760,
  11160,
  34719,
  1546,
  42,
  2030,
  12565,
  49085,
  11160,
  34719,
  1546,
  42,
  2030,
  6734,
  30114,
  19497,
  38151,
  1251,
  50668,
  50668,
  35878,
  3338,
  11160,
  34719,
  9678,
  7536,
  19425,
  3338,
  11160,
  34719,
  3111,
  45376,
  11284,
  50854,
  50854,
  1960,
  6734,
  30114,
  19497,
  38151,
  1251,
  50978,
  50978,
  5884,
  24842,
  1960,
  6734,
  23131,
  32,
  17,
  22060,
  14901,
  1546,
  30146,
  51231,
  51231,
  14003,
  26504,
  12358,
  106,
  32,
  16,
  9678,
  32,
  17,
  51330,
  51330,
  14003,
  26504,
  12358,
  106,
  48,
  16,
  1231,
  48,
  17,
  51438,
  51438,
  14003,
  26504,
  12358,
  106,
  42,
  16,
  1231,
  42,
  17,
  51522,
  51522,
  48,
  17,
  14003,
  9678,
  42,
  16,
  9678,
  42,
  17,
  6734,
  30114,
  19497,
  38151,
  1251,
  51665,
  51665,
  20578,
  14003,
  30114,
  19497,
  53,
  16,
  9678,
  53,
  17,
  1546,
  4360,
  397,
  292,
  8626,
  51802
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>當我們輸出這個B2的時候<|2.00|><|2.00|>B2就只考慮了A1跟A2<|4.50|><|4.50|>就沒有考慮到A3跟A4<|6.76|><|6.76|>那為什麼會這樣呢?<|8.30|><|8.30|>為什麼需要加Masking呢?<|11.30|><|11.30|>這件事情其實非常的直覺<|13.38|><|13.38|>怎麼說?<|14.18|><|14.18|>你想想看我們一開始Decoder的運作方式<|16.80|><|16.80|>它是一個一個輸出<|19.34|><|19.34|>它的輸出是一個一個產生的<|21.64|><|21.64|>所以是先有A1再有A2再有A3再有A4<|26.10|><|26.10|>這跟原來的Self-Attention不一樣<|28.06|><|28.06|>原來的Self-Attention<|29.36|><|endoftext|> | |
| 
	a1 跟 a4 是 一 次 整 個 輸 進 去 你 的 model 裡 面 的 在 我 們 講 encoder 的 時 候 encoder 是 一 次 把 a1 跟 a4 都 整 個 都 讀 進 去 但 是 對 decoder 而 言 先 有 a1 才 有 a2 才 有 a3 才 有 a4 所 以 實 際 上 當 你 有 a2 你 要 計 算 b2 的 時 候 你 是 沒 有 a3 跟 a4 的 所 以 你 根 本 就 沒 有 辦 法 把 a3 a4 考 慮 進 來 所 以 這 就 是 為 什 麼 在 那 個 decoder 的 那 個 圖 上 面 | 
	ML2021_ASR_ST-25 | 
	[
  50361,
  50364,
  13118,
  5884,
  12290,
  116,
  7781,
  6287,
  33,
  17,
  20643,
  50464,
  50464,
  33,
  17,
  3111,
  14003,
  26504,
  12358,
  106,
  2289,
  32,
  16,
  9678,
  32,
  17,
  50589,
  50589,
  3111,
  6963,
  26504,
  12358,
  106,
  4511,
  32,
  18,
  9678,
  32,
  19,
  50702,
  50702,
  4184,
  18987,
  6236,
  8377,
  6240,
  30,
  50779,
  50779,
  18987,
  35748,
  9990,
  44,
  47211,
  6240,
  30,
  50929,
  50929,
  2664,
  49459,
  14139,
  48263,
  16186,
  9463,
  51033,
  51033,
  11614,
  4622,
  30,
  51073,
  51073,
  38386,
  7093,
  4200,
  5884,
  2257,
  21017,
  35,
  3045,
  19866,
  1546,
  32772,
  11914,
  9249,
  27584,
  51204,
  51204,
  11284,
  1541,
  8990,
  8990,
  12290,
  116,
  7781,
  51331,
  51331,
  45224,
  12290,
  116,
  7781,
  1541,
  8990,
  8990,
  33299,
  8244,
  1546,
  51446,
  51446,
  7239,
  1541,
  10108,
  2412,
  32,
  16,
  8623,
  2412,
  32,
  17,
  8623,
  2412,
  32,
  18,
  8623,
  2412,
  32,
  19,
  51669,
  51669,
  2664,
  9678,
  19683,
  3763,
  1546,
  50,
  1967,
  12,
  38151,
  1251,
  1960,
  22977,
  51767,
  51767,
  19683,
  3763,
  1546,
  50,
  1967,
  12,
  38151,
  1251,
  51832
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>A1跟A4是一次整個輸進去你的model裡面的<|3.94|><|3.94|>在我們講encoder的時候<|5.44|><|5.44|>encoder是一次把A1跟A4整個都讀進去<|9.00|><|9.00|>但是對decoder而言<|10.54|><|10.80|>先有A1才有A2才有A3才有A4<|13.94|><|13.94|>所以實際上當你有A2<|16.10|><|16.10|>你要計算B2的時候<|17.76|><|17.84|>你是沒有A3跟A4的<|19.94|><|20.04|>所以你根本就沒有辦法把A3 A4<|22.96|><|23.10|>考慮進來<|23.90|><|23.90|>所以這就是為什麼在那個decoder的<|26.50|><|26.50|>那個圖上面<|27.64|><|endoftext|> | |
| 
	transformer 原 始 的 paper 特 別 跟 你 強 調 說 那 不 是 一 個 一 般 的 attention 這 是 一 個 masked 的 self-attention 意 思 只 是 想 要 告 訴 你 說 decoder 它 的 token 它 輸 出 的 東 西 是 一 個 一 個 產 生 的 所 以 它 只 能 考 慮 它 左 邊 的 東 西 它 沒 有 辦 法 考 慮 它 右 邊 的 東 西 好 但 是 講 到 這 裡 啊 我 們 講 了 一 下 我 們 講 了 decoder 的 運 作 方 式 但 是 這 邊 呢 還 有 一 個 非 常 關 鍵 的 問 題 這 個 關 鍵 的 問 題 是 decoder 必 須 自 己 決 定 | 
	ML2021_ASR_ST-26 | 
	[
  50361,
  50364,
  32,
  16,
  9678,
  32,
  19,
  1541,
  27505,
  27662,
  3338,
  12290,
  116,
  18214,
  6734,
  18961,
  8014,
  338,
  32399,
  1546,
  50561,
  50561,
  3581,
  5884,
  11932,
  22660,
  19866,
  20643,
  50636,
  50636,
  22660,
  19866,
  1541,
  27505,
  16075,
  32,
  16,
  9678,
  32,
  19,
  27662,
  3338,
  7182,
  7422,
  222,
  18214,
  6734,
  50814,
  50814,
  11189,
  2855,
  42821,
  19866,
  11070,
  12009,
  50891,
  50904,
  10108,
  2412,
  32,
  16,
  18888,
  2412,
  32,
  17,
  18888,
  2412,
  32,
  18,
  18888,
  2412,
  32,
  19,
  51061,
  51061,
  7239,
  10376,
  34837,
  5708,
  13118,
  43320,
  32,
  17,
  51169,
  51169,
  32085,
  30114,
  19497,
  33,
  17,
  20643,
  51252,
  51256,
  32526,
  6963,
  32,
  18,
  9678,
  32,
  19,
  1546,
  51361,
  51366,
  7239,
  2166,
  31337,
  8802,
  3111,
  6963,
  40072,
  16075,
  32,
  18,
  316,
  19,
  51512,
  51519,
  26504,
  12358,
  106,
  18214,
  3763,
  51559,
  51559,
  7239,
  2664,
  5620,
  18987,
  3581,
  20754,
  42821,
  19866,
  1546,
  51689,
  51689,
  20754,
  2523,
  244,
  49750,
  51746
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>Transformer原始的paper特別跟你強調說<|2.66|><|2.66|>那不是一個一般的Attention<|4.40|><|4.40|>這是一個Masked的Zone Attention<|7.16|><|7.16|>意思只是想要告訴你說<|8.56|><|8.56|>Decoder他的Token<|10.20|><|10.20|>他輸出的東西是一個一個產生的<|12.56|><|12.56|>所以他只能考慮他左邊的東西<|14.76|><|14.76|>他沒有辦法考慮他右邊的東西<|17.60|><|17.60|>好但是講到這裡啊<|19.12|><|19.12|>我們講了一下<|20.06|><|20.06|>我們講了Decoder的運作方式<|22.12|><|22.12|>但是這邊呢還有一個非常關鍵的問題<|25.20|><|25.20|>這個關鍵的問題是<|26.60|><|26.92|>Decoder必須自己決定<|29.02|><|endoftext|> | |
| 
	輸 出 的 sequence 的 長 度 可 是 到 底 輸 出 的 sequence 的 長 度 應 該 是 多 少 呢 我 們 不 知 道 你 沒 有 辦 法 輕 易 的 從 輸 入 的 sequence 的 長 度 就 知 道 輸 出 的 sequence 的 長 度 是 多 少 並 不 是 說 輸 入 是 4 個 向 量 輸 出 一 定 就 是 4 個 向 量 這 邊 在 這 個 例 子 裡 面 輸 入 跟 輸 出 的 長 度 是 一 樣 的 但 是 你 知 道 實 際 上 在 你 真 正 的 應 用 裡 面 並 不 是 這 樣 輸 入 跟 輸 出 長 度 的 關 係 是 非 常 複 雜 的 | 
	ML2021_ASR_ST-27 | 
	[
  50361,
  50364,
  33339,
  837,
  260,
  19683,
  15476,
  1546,
  22104,
  38446,
  24131,
  22752,
  32943,
  4622,
  50497,
  50497,
  4184,
  7296,
  8990,
  2257,
  49640,
  1546,
  38151,
  1251,
  50584,
  50584,
  16600,
  8990,
  44,
  3863,
  292,
  1546,
  57,
  546,
  31858,
  50722,
  50722,
  16697,
  36859,
  7093,
  4275,
  31080,
  42920,
  50792,
  50792,
  35,
  3045,
  19866,
  31309,
  51,
  8406,
  50874,
  50874,
  5000,
  12290,
  116,
  7781,
  1546,
  26978,
  1541,
  8990,
  8990,
  33299,
  8244,
  1546,
  50992,
  50992,
  7239,
  5000,
  14003,
  8225,
  26504,
  12358,
  106,
  5000,
  21975,
  14901,
  1546,
  26978,
  51102,
  51102,
  5000,
  6963,
  40072,
  26504,
  12358,
  106,
  5000,
  22060,
  14901,
  1546,
  26978,
  51244,
  51244,
  2131,
  11189,
  11932,
  4511,
  18771,
  4905,
  51320,
  51320,
  5884,
  11932,
  2289,
  8861,
  51367,
  51367,
  5884,
  11932,
  2289,
  35,
  3045,
  19866,
  1546,
  32772,
  11914,
  9249,
  27584,
  51470,
  51470,
  11189,
  22821,
  6240,
  15569,
  8990,
  14392,
  14899,
  41668,
  113,
  1546,
  17197,
  51624,
  51624,
  6287,
  14899,
  41668,
  113,
  1546,
  17197,
  1541,
  51694,
  51710,
  35,
  3045,
  19866,
  28531,
  8313,
  230,
  17645,
  33540,
  12088,
  51815
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>輸出的sequence的長度<|2.60|><|2.60|>可是到底輸出的sequence的長度應該是多少呢?<|6.00|><|6.00|>我們不知道<|7.60|><|7.60|>你沒有辦法輕易地從輸入的sequence的長度<|11.00|><|11.00|>就知道輸出的sequence的長度是多少<|14.20|><|14.20|>並不是說輸入是四個向量<|17.80|><|17.80|>輸出一定就是四個向量<|19.60|><|19.60|>這邊在這個例子裡面輸入跟輸出的長度是一樣的<|22.40|><|22.40|>但是你知道實際上在你真正的應用裡面並不是這樣<|25.80|><|25.80|>輸入跟輸出長度的關係是非常複雜的<|29.60|><|endoftext|> | |
| 
	我 們 其 實 是 期 待 機 器 可 以 自 己 學 到 今 天 給 它 一 個 input sequence 的 時 候 output 的 sequence 應 該 要 多 長 但 在 我 們 目 前 的 這 整 個 decoder 的 這 個 運 作 的 機 制 裡 面 機 器 不 知 道 它 什 麼 時 候 應 該 停 下 來 它 產 生 完 習 以 後 它 還 可 以 繼 續 重 複 一 模 一 樣 的 process 就 把 習 呢 當 做 輸 入 然 後 也 許 decoder 呢 就 會 接 一 個 慣 然 後 接 下 來 呢 就 一 直 持 續 下 去 | 
	ML2021_ASR_ST-28 | 
	[
  50361,
  50364,
  12290,
  116,
  7781,
  1546,
  11834,
  655,
  1546,
  15353,
  13127,
  50494,
  50494,
  23359,
  33883,
  12290,
  116,
  7781,
  1546,
  11834,
  655,
  1546,
  15353,
  13127,
  26087,
  1541,
  41492,
  6240,
  30,
  50664,
  50664,
  5884,
  17572,
  50744,
  50744,
  2166,
  6963,
  40072,
  34801,
  31962,
  10928,
  21068,
  12290,
  116,
  14028,
  1546,
  11834,
  655,
  1546,
  15353,
  13127,
  50914,
  50914,
  3111,
  7758,
  12290,
  116,
  7781,
  1546,
  11834,
  655,
  1546,
  15353,
  13127,
  1541,
  41492,
  51074,
  51074,
  35934,
  7296,
  4622,
  12290,
  116,
  14028,
  1541,
  19425,
  3338,
  24282,
  26748,
  51254,
  51254,
  12290,
  116,
  7781,
  24272,
  5620,
  19425,
  3338,
  24282,
  26748,
  51344,
  51344,
  22821,
  3581,
  6287,
  17797,
  7626,
  32399,
  12290,
  116,
  14028,
  9678,
  12290,
  116,
  7781,
  1546,
  15353,
  13127,
  1541,
  22977,
  1546,
  51484,
  51484,
  11189,
  28945,
  10376,
  34837,
  5708,
  3581,
  2166,
  6303,
  15789,
  1546,
  20481,
  9254,
  32399,
  35934,
  7296,
  8377,
  51654,
  51654,
  12290,
  116,
  14028,
  9678,
  12290,
  116,
  7781,
  15353,
  13127,
  1546,
  25802,
  1541,
  14392,
  164,
  97,
  229,
  6306,
  250,
  1546,
  51844
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>我們其實是期待機器可以自己學到<|3.40|><|3.40|>今天給他一個input sequence的時候<|5.80|><|5.80|>output sequence應該要多長<|7.76|><|7.76|>但在我們目前的這整個decoder的運作機制裡面<|12.70|><|12.70|>機器不知道他什麼時候應該停下來<|16.40|><|16.40|>他產生完錫以後<|18.30|><|18.30|>他還可以繼續重複一模一樣的process<|21.70|><|21.70|>就把錫當作輸入<|24.16|><|24.16|>然後也許decoder就會接一個罐<|27.00|><|27.00|>然後接下來就一直持續下去<|29.50|><|endoftext|> | |
| 
	永 遠 都 不 會 停 下 來 這 讓 我 想 到 什 麼 呢 就 讓 我 想 到 推 文 接 龍 啦 我 不 知 道 大 家 知 不 知 道 這 是 什 麼 這 是 一 個 這 個 古 老 的 民 俗 傳 統 流 傳 在 ptt 上 面 這 個 民 俗 傳 統 是 怎 麼 運 作 的 呢 就 有 一 個 人 呢 先 推 一 個 中 文 字 然 後 推 一 個 超 然 後 接 下 來 呢 就 會 有 另 外 一 個 鄉 民 呢 去 推 另 外 一 個 字 然 後 可 以 接 上 去 的 所 以 就 可 以 產 生 一 排 的 詞 彙 啦 一 排 字 啦 | 
	ML2021_ASR_ST-29 | 
	[
  50361,
  50364,
  5884,
  14139,
  1541,
  16786,
  18390,
  17543,
  34386,
  6723,
  17645,
  21372,
  4511,
  50534,
  50534,
  12074,
  17798,
  5000,
  8990,
  259,
  2582,
  8310,
  20643,
  50654,
  50654,
  346,
  2582,
  8310,
  26087,
  4275,
  6392,
  15353,
  50752,
  50752,
  8395,
  3581,
  5884,
  39004,
  1546,
  2664,
  27662,
  3338,
  42821,
  19866,
  1546,
  32772,
  11914,
  17543,
  25491,
  32399,
  50999,
  50999,
  17543,
  34386,
  17572,
  5000,
  7598,
  14010,
  26087,
  36135,
  27769,
  51184,
  51184,
  5000,
  33299,
  8244,
  14128,
  9567,
  104,
  3588,
  5661,
  51279,
  51279,
  5000,
  7824,
  6723,
  38459,
  12624,
  164,
  97,
  229,
  2257,
  41908,
  22977,
  1546,
  41075,
  51449,
  51449,
  3111,
  16075,
  9567,
  104,
  13118,
  11914,
  12290,
  116,
  14028,
  51572,
  51572,
  10213,
  6404,
  40914,
  42821,
  19866,
  47778,
  14468,
  8990,
  16469,
  238,
  51714,
  51714,
  10213,
  40012,
  3111,
  34448,
  17694,
  29583,
  34473,
  51839
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>永遠都不會停下來<|2.36|><|2.36|>這讓我想到什麼呢?<|3.66|><|3.66|>這讓我想到推文接龍啦<|5.60|><|5.60|>我不知道大家知不懂是什麼<|7.40|><|7.40|>這是一個古老的民俗傳統<|10.96|><|10.96|>流傳在PTT上面<|13.30|><|13.30|>這個民俗傳統是怎麼運作的呢?<|15.60|><|15.60|>就有一個人先推一個中文字<|18.80|><|18.80|>推一個抄<|19.84|><|19.84|>然後接下來就會有另外一個鄉民<|22.44|><|22.44|>去推另外一個字<|24.20|><|24.20|>然後可以接上去的<|25.44|><|25.44|>所以就可以產生一排的詞彙啦<|27.84|><|27.84|>一排字啦<|28.64|><|endoftext|> | |
| 
	就 是 超 人 正 大 中 天 外 飛 仙 草 不 知 道 在 說 些 什 麼 這 個 process 呢 可 以 持 續 好 幾 個 月 都 不 停 下 來 我 也 不 知 道 為 什 麼 那 怎 麼 讓 這 個 process 停 下 來 呢 那 要 怎 麼 讓 它 停 下 來 呢 要 有 人 冒 險 去 推 一 個 斷 推 個 斷 它 就 停 下 來 了 所 以 我 們 要 讓 decoder 做 的 事 情 也 是 一 樣 要 讓 它 可 以 輸 出 一 個 斷 所 以 你 要 特 別 準 備 一 個 特 別 的 符 號 這 個 符 號 呢 就 叫 做 斷 | 
	ML2021_ASR_ST-30 | 
	[
  50361,
  50364,
  42503,
  34489,
  7182,
  21121,
  36135,
  27769,
  50482,
  50482,
  2664,
  21195,
  25246,
  4511,
  7598,
  6240,
  30,
  50547,
  50547,
  2664,
  21195,
  25246,
  4511,
  33597,
  17174,
  14468,
  39473,
  9724,
  50644,
  50644,
  47826,
  6868,
  6498,
  1960,
  29624,
  35851,
  50734,
  50734,
  16600,
  8990,
  46335,
  10439,
  1546,
  16113,
  7792,
  245,
  40852,
  33725,
  50912,
  50912,
  27854,
  40852,
  3581,
  47,
  28178,
  49750,
  51029,
  51029,
  6287,
  16113,
  7792,
  245,
  40852,
  33725,
  1541,
  11614,
  32772,
  11914,
  1546,
  6240,
  30,
  51144,
  51144,
  3111,
  2412,
  8990,
  4035,
  10108,
  33597,
  8990,
  5975,
  17174,
  22381,
  51304,
  51304,
  33597,
  8990,
  7235,
  226,
  51356,
  51356,
  10213,
  40012,
  47778,
  2412,
  26202,
  8990,
  49500,
  231,
  16113,
  51486,
  51486,
  6734,
  33597,
  26202,
  8990,
  22381,
  51574,
  51574,
  10213,
  6723,
  14468,
  5708,
  6734,
  1546,
  51636,
  51636,
  7239,
  36781,
  33299,
  8244,
  2257,
  44647,
  1546,
  6716,
  252,
  7391,
  247,
  9724,
  51756,
  51756,
  2257,
  44647,
  22381,
  9724,
  51796
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>就是超人、正大、中天、外飛仙、超人不知道在說些什麼<|3.64|><|3.64|>這個process可以持續好幾個月都不停下來<|7.88|><|7.88|>我也不知道為什麼<|8.88|><|8.88|>那怎麼讓這個process停下來呢?<|11.56|><|11.56|>那要怎麼讓它停下來呢?<|13.24|><|13.24|>要有人冒險去推一個段<|15.64|><|15.64|>推一個段,它就停下來了<|18.08|><|18.08|>所以我們要讓decoder做的事情也是一樣<|21.64|><|21.64|>要讓它可以輸出一個段<|24.28|><|24.28|>所以你要特別準備一個特別的符號<|27.20|><|27.20|>這個符號就叫做段<|29.44|><|endoftext|> | |
| 
	我 們 這 邊 呢 用 end 來 表 示 這 個 特 殊 的 符 號 所 以 除 了 所 有 中 文 的 方 塊 字 還 有 begin 以 外 你 還 要 準 備 一 個 特 殊 的 符 號 叫 做 斷 那 其 實 在 助 教 的 程 式 裡 面 啊 它 是 把 begin 跟 end 就 是 開 始 跟 這 個 斷 用 同 一 個 符 號 來 表 示 反 正 這 個 這 個 begin 只 會 在 輸 入 的 時 候 出 現 斷 只 會 在 輸 出 的 時 候 出 現 所 以 在 助 教 的 程 式 裡 面 如 果 你 仔 細 研 究 一 下 的 話 會 發 現 說 end 跟 begin | 
	ML2021_ASR_ST-31 | 
	[
  50361,
  50364,
  5620,
  19869,
  4035,
  1231,
  15789,
  3582,
  1231,
  5975,
  6135,
  1231,
  12022,
  34629,
  1550,
  247,
  1231,
  19869,
  4035,
  17572,
  3581,
  4622,
  13824,
  7598,
  50546,
  50546,
  6287,
  41075,
  6723,
  17694,
  29583,
  2131,
  23575,
  3338,
  6939,
  7182,
  1960,
  36135,
  27769,
  50758,
  50758,
  27761,
  17572,
  18987,
  50808,
  50808,
  4184,
  11614,
  21195,
  6287,
  41075,
  36135,
  27769,
  6240,
  30,
  50942,
  50942,
  4184,
  4275,
  11614,
  21195,
  11284,
  36135,
  27769,
  6240,
  30,
  51026,
  51026,
  4275,
  45820,
  5676,
  240,
  49753,
  6734,
  33597,
  8990,
  28427,
  51146,
  51146,
  33597,
  8990,
  28427,
  11,
  11284,
  3111,
  36135,
  4438,
  25364,
  51268,
  51268,
  7239,
  5884,
  4275,
  21195,
  42821,
  19866,
  10907,
  1546,
  24675,
  22021,
  22977,
  51446,
  51446,
  4275,
  21195,
  11284,
  6723,
  12290,
  116,
  7781,
  8990,
  28427,
  51578,
  51578,
  7239,
  32085,
  38446,
  36241,
  8990,
  38446,
  1546,
  5437,
  99,
  18616,
  51724,
  51724,
  6287,
  5437,
  99,
  18616,
  3111,
  19855,
  10907,
  28427,
  51836
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>這邊用end來表示這個特殊的符號<|4.36|><|4.36|>所以除了所有中文的方塊字還有begin以外<|9.40|><|9.40|>你還要準備一個特殊的符號叫做段<|12.60|><|12.60|>那其實在助教的程式裡面<|14.60|><|14.60|>它是把begin跟end<|16.88|><|16.88|>就是開始跟這個段用同一個符號來表示<|20.08|><|20.08|>反正這個begin只會在輸入的時候出現<|23.40|><|23.40|>段只會在輸出的時候出現<|25.12|><|25.12|>所以在助教程式裡面<|26.16|><|26.16|>如果你仔細研究一下的話<|27.76|><|27.76|><|endoftext|> | |
| 
	用 的 其 實 是 同 一 個 符 號 但 你 用 不 同 的 符 號 也 是 完 全 可 以 的 也 完 全 沒 有 問 題 好 所 以 我 們 現 在 呢 這 樣 decoder 它 可 以 輸 出 斷 這 個 符 號 輸 出 end 這 個 符 號 那 我 們 期 待 說 當 今 天 呢 產 生 完 習 以 後 再 把 習 當 作 decoder 的 輸 入 以 後 decoder 就 要 能 夠 輸 出 斷 也 就 是 說 當 把 習 當 作 輸 入 以 後 就 decoder 看 到 encoder 輸 出 的 這 個 embedding | 
	ML2021_ASR_ST-32 | 
	[
  50361,
  50364,
  22821,
  9254,
  521,
  3763,
  40053,
  6287,
  17682,
  15976,
  232,
  1546,
  5437,
  99,
  18616,
  50582,
  50582,
  7239,
  32999,
  2289,
  39300,
  5975,
  17174,
  1546,
  9249,
  26268,
  22381,
  15569,
  650,
  1494,
  3588,
  12022,
  50834,
  50834,
  2166,
  7824,
  4275,
  36241,
  8990,
  17682,
  15976,
  232,
  1546,
  5437,
  99,
  18616,
  19855,
  10907,
  28427,
  50994,
  50994,
  4184,
  14139,
  3581,
  37618,
  21936,
  1546,
  29649,
  27584,
  32399,
  51094,
  51094,
  11284,
  1541,
  16075,
  650,
  1494,
  9678,
  521,
  51208,
  51208,
  5620,
  21017,
  9678,
  6287,
  28427,
  9254,
  13089,
  8990,
  5437,
  99,
  18616,
  3763,
  40053,
  51368,
  51368,
  22138,
  15789,
  6287,
  650,
  1494,
  14003,
  6236,
  3581,
  12290,
  116,
  14028,
  20643,
  7781,
  9581,
  51534,
  51534,
  28427,
  14003,
  6236,
  3581,
  12290,
  116,
  7781,
  20643,
  7781,
  9581,
  51620,
  51620,
  7239,
  3581,
  37618,
  21936,
  29649,
  27584,
  32399,
  51672,
  51672,
  45669,
  49385,
  41588,
  23230,
  242,
  44704,
  8861,
  21358,
  51752,
  51752
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>用的其實是同一個符號<|1.54|><|1.54|>但你用不同的符號<|2.84|><|2.84|>也是完全可以的<|4.32|><|4.32|>也完全沒有問題<|5.96|><|5.96|>所以我們現在呢<|7.48|><|7.48|>這樣Decoder它可以輸出<|9.60|><|9.60|>斷這個符號<|10.84|><|10.84|>輸出End這個符號<|12.52|><|12.52|>那我們期待說<|14.04|><|14.04|>當今天呢<|15.36|><|15.36|>產生完習以後<|17.12|><|17.12|>再把習當作Decoder的輸入以後<|19.96|><|19.96|>Decoder就要能夠輸出斷<|22.92|><|22.92|>也就是說當把習當作輸入以後<|25.36|><|25.36|>就Decoder看到Encoder輸出的<|28.36|><|28.36|><|endoftext|> | |
| 
	看 到 了 begin 然 後 機 器 學 習 以 後 看 到 這 些 資 訊 以 後 它 要 知 道 說 這 個 語 音 辨 識 的 結 果 已 經 結 束 了 不 需 要 再 產 生 更 多 的 詞 彙 了 它 產 生 出 來 的 向 量 裡 面 這 個 end 就 是 斷 的 那 個 符 號 它 的 機 率 必 須 要 是 最 大 的 然 後 你 就 輸 出 斷 這 個 符 號 那 整 個 運 作 的 過 程 整 個 decoder 產 生 sequence 的 過 程 就 結 束 了 好 那 這 個 呢 | 
	ML2021_ASR_ST-33 | 
	[
  50361,
  50364,
  9254,
  1546,
  14139,
  1541,
  13089,
  8990,
  5437,
  99,
  18616,
  50441,
  50441,
  8395,
  2166,
  9254,
  47123,
  1546,
  5437,
  99,
  18616,
  50506,
  50506,
  22021,
  37100,
  6723,
  1546,
  50580,
  50580,
  6404,
  37100,
  6963,
  17197,
  50662,
  50662,
  7239,
  5884,
  12648,
  6240,
  50738,
  50738,
  8377,
  35,
  3045,
  19866,
  11284,
  6723,
  12290,
  116,
  7781,
  50844,
  50844,
  4307,
  115,
  6287,
  5437,
  99,
  18616,
  50906,
  50906,
  12290,
  116,
  7781,
  36952,
  6287,
  5437,
  99,
  18616,
  50990,
  50990,
  46714,
  16786,
  18390,
  4622,
  51066,
  51066,
  13118,
  12074,
  6240,
  51132,
  51132,
  33299,
  8244,
  14128,
  34025,
  3588,
  5661,
  51220,
  51220,
  8623,
  16075,
  34025,
  13118,
  11914,
  35,
  3045,
  19866,
  1546,
  12290,
  116,
  14028,
  3588,
  5661,
  51362,
  51362,
  35,
  3045,
  19866,
  3111,
  4275,
  8225,
  31649,
  12290,
  116,
  7781,
  4307,
  115,
  51510,
  51510,
  6404,
  26222,
  13118,
  16075,
  34025,
  13118,
  11914,
  12290,
  116,
  14028,
  3588,
  5661,
  51632,
  51632,
  3111,
  35,
  3045,
  19866,
  18032,
  16257,
  66,
  19866,
  12290,
  116,
  7781,
  1546,
  51782,
  51782
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>看到了begin,然後機器學習以後<|3.80|><|3.80|>看到這些資訊以後,他要知道說<|5.80|><|5.80|>這個語音辨識的結果已經結束了<|8.80|><|8.80|>不需要再產生更多的詞彙了<|11.60|><|11.60|>他產生出來的向量裡面<|13.60|><|13.60|>這個end,就是斷的那個符號<|15.80|><|15.80|>他的機率必須要是最大的<|18.60|><|18.60|>然後你就輸出斷這個符號<|20.60|><|20.60|>那整個運作的過程,整個decoder<|23.20|><|23.20|>產生sequence的過程就結束了<|25.80|><|25.80|>好,那這個呢<|27.80|><|endoftext|> | |
| 
	也 縮 寫 成 at non-autoregressive 的 model 是 怎 麼 運 作 的 呢 這 個 autoregressive 的 model 是 先 輸 入 begin 然 後 出 現 w1 然 後 再 把 w1 當 做 輸 入 再 輸 出 w2 直 到 輸 出 end 為 止 那 nat 是 這 樣 它 不 是 一 次 產 生 就 假 設 我 們 現 在 產 生 是 中 文 的 句 子 它 不 是 一 次 產 生 一 個 字 它 是 一 次 把 整 個 句 子 都 產 生 出 來 怎 麼 一 次 把 整 個 句 子 都 產 生 出 來 呢 nat 的 decoder 啊 | 
	ML2021_ASR_ST-34 | 
	[
  50361,
  50364,
  18032,
  2289,
  650,
  1494,
  11,
  10213,
  17543,
  34386,
  21372,
  34025,
  3588,
  5661,
  50554,
  50554,
  18032,
  29869,
  35380,
  5396,
  232,
  3588,
  5661,
  11,
  5000,
  4275,
  7758,
  4622,
  50654,
  50654,
  6287,
  31348,
  18034,
  9830,
  101,
  43143,
  1546,
  35181,
  25338,
  17144,
  44320,
  2289,
  50804,
  50804,
  1960,
  35748,
  8623,
  33299,
  8244,
  19002,
  6392,
  1546,
  6716,
  252,
  7391,
  247,
  2289,
  50944,
  50944,
  5000,
  33299,
  8244,
  29741,
  1546,
  24282,
  26748,
  32399,
  51044,
  51044,
  6287,
  521,
  11,
  5620,
  4307,
  115,
  1546,
  20754,
  5437,
  99,
  18616,
  51154,
  51154,
  31309,
  17543,
  44866,
  28531,
  8313,
  230,
  4275,
  1541,
  8661,
  39156,
  51294,
  51294,
  10213,
  41045,
  12290,
  116,
  7781,
  4307,
  115,
  6287,
  5437,
  99,
  18616,
  51394,
  51394,
  4184,
  27662,
  3338,
  32772,
  11914,
  1546,
  8816,
  29649,
  11,
  27662,
  3338,
  1479,
  1291,
  1068,
  51524,
  51524,
  33299,
  8244,
  11834,
  655,
  1546,
  8816,
  29649,
  3111,
  17144,
  44320,
  2289,
  51654,
  51654,
  2131,
  11,
  4184,
  6287,
  6240,
  51754
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>也縮寫成at<|1.76|><|1.76|>那AutoRegressive的model是怎麼運作的呢<|4.28|><|4.28|>這個AutoRegressive的model是<|6.20|><|6.20|>先輸入begin,然後出現w1<|8.88|><|8.88|>然後再把w1當作輸入,再輸出w2<|11.68|><|11.68|>直到輸出end的位置<|14.12|><|14.12|>那NAT是這樣<|15.40|><|15.40|>它不是一次產生<|17.52|><|17.52|>就假設我們現在要產生的是中文的句子<|19.36|><|19.36|>它不是一次產生一個字<|20.72|><|20.72|>它是一次把整個句子都產生出來<|23.36|><|23.36|>怎麼一次把整個句子都產生出來呢<|26.28|><|26.28|>NAT的decoder啊<|27.60|><|endoftext|> | |
| 
	它 可 能 吃 的 是 一 整 排 的 begin 的 token 你 就 把 一 堆 一 排 begin 的 token 都 丟 給 它 讓 它 一 次 產 生 一 排 token 就 結 束 了 舉 例 來 說 如 果 你 丟 給 它 4 個 begin 的 token 它 就 產 生 4 個 中 文 的 字 變 成 一 個 句 子 就 結 束 了 所 以 它 只 要 一 個 步 驟 就 可 以 完 成 句 子 的 生 成 這 邊 你 可 能 會 問 一 個 問 題 剛 才 不 是 說 不 知 道 要 有 多 輸 出 的 長 度 應 該 是 多 少 嗎 | 
	ML2021_ASR_ST-35 | 
	[
  50361,
  50364,
  6404,
  21030,
  106,
  4510,
  104,
  11336,
  267,
  50452,
  50452,
  4184,
  32,
  8262,
  40888,
  22733,
  1546,
  8014,
  338,
  1541,
  11614,
  32772,
  11914,
  1546,
  6240,
  50578,
  50578,
  6287,
  32,
  8262,
  40888,
  22733,
  1546,
  8014,
  338,
  1541,
  50674,
  50674,
  10108,
  12290,
  116,
  14028,
  650,
  1494,
  11,
  10213,
  7781,
  9581,
  86,
  16,
  50808,
  50808,
  10213,
  8623,
  16075,
  86,
  16,
  13118,
  11914,
  12290,
  116,
  14028,
  11,
  8623,
  12290,
  116,
  7781,
  86,
  17,
  50948,
  50948,
  16186,
  4511,
  12290,
  116,
  7781,
  521,
  1546,
  11160,
  34719,
  51070,
  51070,
  4184,
  45,
  2218,
  49603,
  51134,
  51134,
  11284,
  7296,
  27505,
  33299,
  8244,
  51240,
  51240,
  3111,
  31706,
  39035,
  5884,
  12648,
  4275,
  33299,
  8244,
  24620,
  5975,
  17174,
  1546,
  34592,
  7626,
  51332,
  51332,
  11284,
  7296,
  27505,
  33299,
  8244,
  8990,
  22381,
  51400,
  51400,
  11284,
  1541,
  27505,
  16075,
  27662,
  3338,
  34592,
  7626,
  7182,
  33299,
  8244,
  29741,
  51532,
  51532,
  11614,
  27505,
  16075,
  27662,
  3338,
  34592,
  7626,
  7182,
  33299,
  8244,
  29741,
  6240,
  51678,
  51678,
  45,
  2218,
  1546,
  42821,
  19866,
  4905,
  51744
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>他可能吃的是一整排的begin的token<|4.00|><|4.00|>你就把一堆一排begin的token都丟給他<|7.12|><|7.12|>讓他一次產生一排token就結束了<|9.92|><|9.92|>舉例來說如果你丟給他四個begin的token<|12.72|><|12.72|>他就產生四個中文的字<|14.88|><|14.88|>變成一個句子就結束了<|17.44|><|17.44|>所以他只要一個步驟就可以完成句子的生成<|21.44|><|21.44|>這邊你可能就會問一個問題<|23.12|><|23.12|>剛才不是說不知道要有多...<|26.08|><|26.08|>輸出的長度應該是多少嗎<|27.84|><|endoftext|> | |
| 
	那 我 們 這 邊 怎 麼 知 道 begin 要 放 多 少 個 當 做 nat decoder 的 收 入 呢 沒 錯 這 件 事 沒 有 辦 法 很 自 然 的 知 道 沒 有 辦 法 很 直 接 的 知 道 所 以 有 幾 個 所 以 有 幾 個 做 法 一 個 做 法 是 你 另 外 扔 一 個 classifier 這 個 classifier 呢 它 吃 encoder 的 input 然 後 輸 出 是 什 麼 輸 出 是 一 個 數 字 這 個 數 字 代 表 decoder 應 該 要 輸 出 的 長 度 所 以 你 就 扔 一 個 classifier 這 個 classifier 可 能 吃 encoder 的 input 可 能 吃 | 
	ML2021_ASR_ST-36 | 
	[
  50361,
  50364,
  5000,
  16657,
  10123,
  24620,
  2257,
  27662,
  44647,
  1546,
  650,
  1494,
  1546,
  83,
  8406,
  50564,
  50564,
  41045,
  16075,
  2257,
  10726,
  228,
  2257,
  44647,
  650,
  1494,
  1546,
  83,
  8406,
  7182,
  940,
  253,
  17798,
  5000,
  50720,
  50720,
  21195,
  5000,
  27505,
  33299,
  8244,
  2257,
  44647,
  83,
  8406,
  3111,
  17144,
  44320,
  2289,
  50860,
  50860,
  42828,
  17797,
  36979,
  45669,
  940,
  253,
  17798,
  5000,
  19425,
  3338,
  650,
  1494,
  1546,
  83,
  8406,
  51000,
  51000,
  5000,
  3111,
  33299,
  8244,
  19425,
  3338,
  5975,
  17174,
  1546,
  22381,
  51108,
  51108,
  26327,
  11336,
  8990,
  34592,
  7626,
  3111,
  17144,
  44320,
  2289,
  51236,
  51236,
  7239,
  5000,
  14003,
  4275,
  8990,
  31429,
  24023,
  253,
  36781,
  41509,
  34592,
  7626,
  1546,
  8244,
  11336,
  51436,
  51436,
  22821,
  2166,
  16657,
  47778,
  11361,
  8990,
  17197,
  51520,
  51520,
  16940,
  18888,
  7296,
  4622,
  17572,
  4275,
  2412,
  6392,
  485,
  51668,
  51668,
  12290,
  116,
  7781,
  1546,
  15353,
  13127,
  26087,
  1541,
  41492,
  7434,
  51756
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>那我們這邊怎麼知道Begin要放多少個當作NAT decoder的輸入呢?<|4.80|><|4.80|>沒錯,這件事沒有辦法很自然的知道,沒有辦法很直接的知道<|8.56|><|8.56|>所以有幾個做法,一個做法是你另外認一個classifier<|13.32|><|13.32|>這個classifier它吃encoder的input,然後輸出是什麼?<|18.96|><|18.96|>輸出是一個數字,這個數字代表decoder應該要輸出的長度<|23.44|><|23.44|>所以你就認一個classifier,這個classifier可能吃encoder的input<|28.48|><|28.48|><|endoftext|> | |
| 
	把 encoder output 那 些 向 量 讀 進 去 它 output 一 個 數 字 比 如 說 output 4 它 output 4 以 後 decoder 就 會 吃 到 nat 的 decoder 就 會 吃 到 4 個 begin 的 token 然 後 它 就 產 生 4 個 中 文 的 字 這 是 一 種 可 能 的 做 法 另 一 種 可 能 做 法 就 是 你 就 不 管 三 七 二 十 一 給 它 一 堆 begin 的 token 你 就 假 設 說 你 現 在 輸 出 的 句 子 的 長 度 絕 對 不 會 超 過 300 個 字 你 就 假 設 一 個 句 子 長 度 的 上 限 然 後 begin 呢 你 就 給 它 300 個 begin | 
	ML2021_ASR_ST-37 | 
	[
  50361,
  50364,
  46714,
  22821,
  11614,
  7758,
  33,
  1146,
  259,
  4275,
  12744,
  41492,
  3338,
  13118,
  11914,
  45,
  2218,
  979,
  19866,
  1546,
  12290,
  116,
  14028,
  6240,
  30,
  50604,
  50604,
  23800,
  11,
  2664,
  20485,
  6973,
  6963,
  40072,
  4563,
  9722,
  5823,
  1546,
  7758,
  11,
  6963,
  40072,
  4563,
  43297,
  1546,
  7758,
  50792,
  50792,
  7239,
  2412,
  23575,
  3338,
  10907,
  11148,
  11,
  8990,
  10907,
  11148,
  1541,
  2166,
  26202,
  22041,
  8990,
  11665,
  9902,
  51030,
  51030,
  6287,
  11665,
  9902,
  11284,
  10123,
  22660,
  19866,
  1546,
  259,
  2582,
  11,
  10213,
  12290,
  116,
  7781,
  35851,
  30,
  51312,
  51312,
  12290,
  116,
  7781,
  1541,
  8990,
  30622,
  22381,
  11,
  6287,
  30622,
  22381,
  19105,
  17571,
  42821,
  19866,
  26087,
  4275,
  12290,
  116,
  7781,
  1546,
  15353,
  13127,
  51536,
  51536,
  7239,
  41045,
  22041,
  8990,
  11665,
  9902,
  11,
  6287,
  11665,
  9902,
  16657,
  10123,
  22660,
  19866,
  1546,
  259,
  2582,
  51788,
  51788
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>把encoder output的那些向量讀進去<|2.46|><|2.46|>它output一個數字,比如說output4<|4.54|><|4.54|>它output4以後<|5.76|><|5.76|>decoder就會吃到<|7.52|><|7.52|>NAT的decoder就會吃到4個begin的token<|10.14|><|10.14|>然後它就產生4個中文的字<|12.50|><|12.50|>這是一種可能的做法<|14.42|><|14.42|>另一種可能的做法就是<|16.06|><|16.06|>你就不管3721<|17.56|><|17.56|>給它一堆begin的token<|19.30|><|19.30|>你就假設說<|20.24|><|20.24|>你現在輸出的句子的長度絕對不會超過300個字<|23.38|><|23.38|>你就假設一個句子長度的上限<|25.26|><|25.26|>然後begin呢<|26.26|><|26.26|>你就給它300個begin<|28.50|><|endoftext|> | |
| 
	然 後 就 會 輸 出 300 個 字 嘛 然 後 呢 你 再 看 看 說 什 麼 地 方 輸 出 了 斷 什 麼 地 方 呢 輸 出 end 輸 出 end 右 邊 的 就 當 做 它 沒 有 輸 出 就 結 束 了 這 是 另 外 一 種 處 理 nat 的 這 個 decoder 它 應 該 輸 出 的 長 度 的 方 法 那 nat 的 decoder 它 有 什 麼 樣 的 好 處 呢 它 第 一 個 好 處 是 平 行 化 這 個 at 的 decoder 它 在 輸 出 它 的 句 子 的 時 候 | 
	ML2021_ASR_ST-38 | 
	[
  50361,
  50364,
  16075,
  22660,
  19866,
  5598,
  1546,
  4184,
  13824,
  24282,
  26748,
  7422,
  222,
  18214,
  6734,
  50487,
  50487,
  11284,
  346,
  2582,
  8990,
  30622,
  22381,
  11,
  36757,
  4622,
  346,
  2582,
  19,
  50591,
  50591,
  11284,
  346,
  2582,
  19,
  3588,
  5661,
  50652,
  50652,
  42821,
  19866,
  47778,
  10123,
  4511,
  50740,
  50740,
  45,
  2218,
  1546,
  42821,
  19866,
  47778,
  10123,
  4511,
  19,
  3338,
  650,
  1494,
  1546,
  83,
  8406,
  50871,
  50871,
  10213,
  11284,
  3111,
  33299,
  8244,
  19,
  3338,
  5975,
  17174,
  1546,
  22381,
  50989,
  50989,
  16600,
  2257,
  16516,
  16657,
  1546,
  10907,
  11148,
  51085,
  51085,
  22762,
  2257,
  16516,
  16657,
  1546,
  10907,
  11148,
  5620,
  51167,
  51167,
  41045,
  45376,
  12851,
  4436,
  51242,
  51242,
  17798,
  11284,
  2257,
  10726,
  228,
  650,
  1494,
  1546,
  83,
  8406,
  51329,
  51329,
  41045,
  31706,
  39035,
  4622,
  51376,
  51376,
  2166,
  12648,
  12290,
  116,
  7781,
  1546,
  34592,
  7626,
  1546,
  15353,
  13127,
  6948,
  243,
  2855,
  21121,
  19869,
  8816,
  12566,
  3338,
  22381,
  51533,
  51533,
  41045,
  31706,
  39035,
  8990,
  34592,
  7626,
  15353,
  13127,
  1546,
  5708,
  43446,
  51627,
  51627,
  10213,
  650,
  1494,
  6240,
  51677,
  51677,
  41045,
  17798,
  11284,
  12566,
  3338,
  650,
  1494,
  51789
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>然後就會輸出300個字嘛<|2.10|><|2.10|>然後呢,你再看看說什麼地方輸出了段<|6.50|><|6.50|>什麼地方呢,輸出end<|8.54|><|8.54|>輸出end的右邊的,就當作他沒有輸出,就結束了<|12.54|><|12.54|>這是另外一種處理NAT的這個decoder<|16.68|><|16.68|>他應該輸出的長度的方法<|18.62|><|18.62|>那NAT的decoder,他有什麼樣的好處呢<|22.12|><|22.12|>他第一個好處是平行化<|24.96|><|24.96|>這個AT的decoder啊,他在輸出他的句子的時候<|28.96|><|endoftext|> | |
| 
	是 一 個 一 個 一 個 字 產 生 的 所 以 你 有 你 的 假 設 要 輸 出 長 度 一 百 個 字 的 句 子 那 你 就 需 要 做 一 百 次 的 decode 但 是 nat 的 decoder 不 是 這 樣 不 管 句 子 的 長 度 如 何 都 是 一 個 步 驟 就 產 生 出 完 整 的 句 子 所 以 在 速 度 上 nat 的 decoder 它 會 跑 得 比 at 的 decoder 要 快 那 你 可 以 想 像 說 這 個 nat decoder 的 想 法 顯 然 是 在 | 
	ML2021_ASR_ST-39 | 
	[
  50361,
  50364,
  10213,
  47778,
  12290,
  116,
  7781,
  12566,
  3338,
  22381,
  20722,
  50469,
  50469,
  10213,
  6240,
  11,
  2166,
  8623,
  22884,
  4622,
  7598,
  30146,
  12290,
  116,
  7781,
  2289,
  28427,
  50689,
  50689,
  7598,
  30146,
  6240,
  11,
  12290,
  116,
  7781,
  521,
  50791,
  50791,
  12290,
  116,
  7781,
  521,
  1546,
  22060,
  14901,
  1546,
  11,
  3111,
  13118,
  11914,
  5000,
  6963,
  12290,
  116,
  7781,
  11,
  3111,
  17144,
  44320,
  2289,
  50991,
  50991,
  16600,
  26202,
  2257,
  16516,
  39289,
  13876,
  45,
  2218,
  1546,
  6287,
  42821,
  19866,
  51198,
  51198,
  5000,
  26087,
  12290,
  116,
  7781,
  1546,
  15353,
  13127,
  1546,
  9249,
  11148,
  51295,
  51295,
  4184,
  45,
  2218,
  1546,
  42821,
  19866,
  11,
  5000,
  2412,
  7598,
  6180,
  1546,
  2131,
  39289,
  6240,
  51470,
  51470,
  5000,
  40760,
  2131,
  39289,
  1541,
  16716,
  8082,
  23756,
  51612,
  51612,
  6287,
  2218,
  1546,
  42821,
  19866,
  4905,
  11,
  5000,
  3581,
  12290,
  116,
  7781,
  31309,
  34592,
  7626,
  20643,
  51812
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>是一個一個一個字產生的<|3.08|><|3.08|>所以假設你要輸出長度100個字的句子<|7.68|><|7.68|>那你就需要做100次的decode<|10.88|><|10.88|>但是NAT的decoder不是這樣<|12.88|><|12.88|>不管句子的長度如何<|14.52|><|14.52|>都是一個步驟就產生出完整的句子<|19.04|><|19.04|>所以在速度上<|20.28|><|20.28|>NAT的decoder會跑得比AT的decoder要快<|24.36|><|24.36|>那你可以想像說這個NAT decoder的想法<|27.72|><|27.72|>顯然是在<|28.72|><|endoftext|> | |
| 
	由 這 個 transformer 以 後 有 這 種 self-attention 的 decoder 以 後 才 有 的 對 不 對 因 為 以 前 如 果 你 是 用 那 個 lstm 用 rnn 的 話 那 你 就 算 給 它 一 排 begin 它 也 沒 有 辦 法 同 時 產 生 全 部 的 輸 出 它 的 輸 出 還 是 一 個 一 個 產 生 的 所 以 在 沒 有 這 個 self-attention 之 前 只 有 rnn 只 有 lstm 的 時 候 根 本 就 不 會 有 人 想 要 做 什 麼 nat 的 decoder 不 過 自 從 有 了 self-attention 以 後 | 
	ML2021_ASR_ST-40 | 
	[
  50361,
  50364,
  1541,
  8990,
  8990,
  8990,
  22381,
  33299,
  8244,
  1546,
  50518,
  50518,
  7239,
  31706,
  39035,
  32085,
  12290,
  116,
  7781,
  15353,
  13127,
  6879,
  3338,
  22381,
  1546,
  34592,
  7626,
  50748,
  50748,
  4184,
  41045,
  35748,
  10907,
  6879,
  9487,
  1546,
  42821,
  1429,
  50908,
  50908,
  11189,
  45,
  2218,
  1546,
  42821,
  19866,
  7296,
  8377,
  51008,
  51008,
  45376,
  34592,
  7626,
  1546,
  15353,
  13127,
  43526,
  51090,
  51090,
  22796,
  8990,
  31429,
  24023,
  253,
  3111,
  33299,
  8244,
  7781,
  14128,
  27662,
  1546,
  34592,
  7626,
  51316,
  51316,
  7239,
  3581,
  31217,
  13127,
  5708,
  51378,
  51378,
  45,
  2218,
  1546,
  42821,
  19866,
  6236,
  32585,
  5916,
  11706,
  2218,
  1546,
  42821,
  19866,
  4275,
  10251,
  51582,
  51582,
  4184,
  42766,
  7093,
  12760,
  4622,
  6287,
  45,
  2218,
  979,
  19866,
  1546,
  7093,
  11148,
  51750,
  51750,
  46605,
  5823,
  1541,
  3581,
  51800
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>由這個Transformer以後<|2.70|><|2.70|>有這種SELF-ATTENTION的DECODER以後<|5.30|><|5.30|>才有的 對不對<|6.40|><|6.40|>因為以前如果你是用那個LSTM<|9.60|><|9.60|>用RNN的話<|10.90|><|10.90|>那你就算給他一排PICKIN<|13.10|><|13.10|>他也沒有辦法同時產生全部的輸出<|15.80|><|15.80|>他的輸出還是一個一個產生的<|17.90|><|17.90|>所以在沒有這個SELF-ATTENTION之前<|21.30|><|21.30|>只有RNN 只有LSTM的時候<|24.20|><|24.20|>根本就不會有人想要做什麼NAP的DECODER<|26.90|><|26.90|>不過自從有了SELF-ATTENTION以後<|29.10|><|endoftext|> | |
| 
	那 nat 的 decoder 現 在 就 算 是 一 個 熱 門 的 研 究 的 主 題 了 那 nat 的 decoder 還 有 另 外 一 個 好 處 就 是 你 比 較 能 夠 控 制 它 輸 出 的 長 度 怎 麼 說 呢 舉 語 音 合 成 為 例 好 了 其 實 在 語 音 合 成 裡 面 nat 的 decoder 算 是 非 常 常 用 的 它 並 不 是 一 個 什 麼 稀 罕 罕 見 的 招 數 比 如 說 有 所 以 語 音 合 成 今 天 你 都 可 以 用 sequence to sequence 的 模 型 來 做 那 最 知 名 的 呢 | 
	ML2021_ASR_ST-41 | 
	[
  50361,
  50364,
  23786,
  6287,
  33339,
  837,
  260,
  3588,
  5661,
  50499,
  50499,
  2412,
  33005,
  50,
  3158,
  37,
  12,
  43321,
  2195,
  7413,
  1546,
  35,
  8140,
  14632,
  1598,
  3588,
  5661,
  50629,
  50629,
  18888,
  2412,
  1546,
  35164,
  50684,
  50684,
  11471,
  44996,
  13119,
  32526,
  9254,
  20754,
  43,
  6840,
  44,
  50844,
  50844,
  9254,
  49,
  45,
  45,
  21358,
  50909,
  50909,
  4184,
  41045,
  19497,
  17798,
  5000,
  2257,
  44647,
  47,
  12141,
  1464,
  51019,
  51019,
  5000,
  6404,
  6963,
  40072,
  13089,
  6611,
  33299,
  8244,
  38714,
  1546,
  12290,
  116,
  7781,
  51154,
  51154,
  31309,
  12290,
  116,
  7781,
  25583,
  8990,
  8990,
  33299,
  8244,
  1546,
  51259,
  51259,
  7239,
  3581,
  6963,
  6287,
  50,
  3158,
  37,
  12,
  43321,
  2195,
  7413,
  32442,
  51429,
  51429,
  35244,
  49,
  45,
  45,
  220,
  35244,
  43,
  6840,
  44,
  20643,
  51574,
  51574,
  31337,
  8802,
  3111,
  21121,
  45820,
  7093,
  4275,
  10907,
  7598,
  45,
  4715,
  1546,
  35,
  8140,
  14632,
  1598,
  51709,
  51709,
  28193,
  9722,
  21068,
  2412,
  2289,
  50,
  3158,
  37,
  12,
  43321,
  2195,
  7413,
  3588,
  5661,
  51819
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>那NAT的decoder現在就算是一個熱門的研究的主題了<|4.80|><|4.80|>那NAT的decoder還有另外一個好處就是<|7.54|><|7.54|>你比較能夠控制它輸出的長度<|11.84|><|11.84|>怎麼說呢?<|12.70|><|12.70|>舉語音合成為例好了<|15.50|><|15.50|>其實在語音合成裡面<|16.88|><|16.88|>NAT的decoder算是非常常用的<|20.08|><|20.08|>它並不是一個什麼稀罕罕見的招數<|23.34|><|23.34|>比如說有<|24.34|><|24.34|>就語音合成今天你都可以用sequence-to-sequence的模型來做<|27.88|><|27.88|>那最知名的呢<|29.08|><|endoftext|> | |
| 
	是 一 個 叫 做 tacotron 的 模 型 那 它 是 at 的 decoder 那 有 另 外 一 個 模 型 叫 fastspeech 那 它 是 nat 的 decoder 那 nat 的 decoder 有 一 個 好 處 就 是 你 可 以 控 制 你 輸 出 的 長 度 那 我 們 剛 才 說 怎 麼 決 定 nat 的 decoder 輸 出 多 長 呢 你 可 能 有 一 個 classifier 決 定 nat 的 decoder 應 該 輸 出 的 長 度 那 如 果 在 做 語 音 合 成 的 時 候 假 設 你 現 在 突 然 想 要 讓 你 的 系 統 講 快 一 點 加 速 | 
	ML2021_ASR_ST-42 | 
	[
  50361,
  50364,
  4184,
  45,
  2218,
  1546,
  42821,
  19866,
  12648,
  3111,
  19497,
  1541,
  8990,
  32745,
  37232,
  1546,
  23230,
  242,
  44704,
  1546,
  13557,
  14475,
  2289,
  50604,
  50604,
  4184,
  45,
  2218,
  1546,
  42821,
  19866,
  15569,
  26202,
  8990,
  2131,
  39289,
  5620,
  50741,
  50741,
  2166,
  25174,
  8225,
  31649,
  48707,
  25491,
  11284,
  12290,
  116,
  7781,
  1546,
  15353,
  13127,
  50956,
  50956,
  11614,
  4622,
  6240,
  30,
  50999,
  50999,
  42828,
  31348,
  18034,
  14245,
  11336,
  6344,
  17797,
  12621,
  51139,
  51139,
  14139,
  3581,
  31348,
  18034,
  14245,
  11336,
  32399,
  51208,
  51208,
  45,
  2218,
  1546,
  42821,
  19866,
  19497,
  1541,
  14392,
  11279,
  9254,
  1546,
  51368,
  51368,
  11284,
  35934,
  7296,
  8990,
  7598,
  10415,
  222,
  16469,
  243,
  16469,
  243,
  10470,
  1546,
  6852,
  249,
  30622,
  51531,
  51531,
  36757,
  4622,
  2412,
  51581,
  51581,
  3111,
  31348,
  18034,
  14245,
  11336,
  12074,
  2166,
  7182,
  6723,
  9254,
  11834,
  655,
  12,
  1353,
  12,
  11834,
  655,
  1546,
  41908,
  39823,
  3763,
  10907,
  51758,
  51758,
  4184,
  8661,
  6498,
  15940,
  1546,
  6240,
  51818
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>是一個叫做Tacotron的模型<|2.32|><|2.32|>那它是AT的decoder<|4.96|><|4.96|>那有另外一個模型叫FastSpeech<|7.40|><|7.40|>那它是NAT的decoder<|9.64|><|9.64|>那NAT的decoder有一個好處就是<|11.72|><|11.72|>你可以控制你輸出的長度<|13.56|><|13.56|>那我們剛才說<|15.04|><|15.04|>怎麼決定NAT的decoder輸出多長呢<|17.64|><|17.64|>你可能有一個classifier<|19.64|><|19.64|>決定NAT的decoder應該輸出的長度<|22.28|><|22.28|>那如果在做語音合成的時候<|23.76|><|23.76|>假設你現在突然想要讓你的系統<|26.08|><|26.08|>講快一點,加速<|27.60|><|endoftext|> | |
| 
	那 你 就 把 那 個 classifier 的 output 除 以 二 它 講 話 速 度 就 變 兩 倍 快 然 後 如 果 你 想 要 這 個 講 話 放 慢 速 度 那 你 就 把 那 個 classifier 輸 出 的 那 個 長 度 啊 它 predict 出 來 的 長 度 乘 兩 倍 那 你 的 這 個 decoder 呢 說 話 的 速 度 就 變 兩 倍 慢 所 以 你 可 以 如 果 有 這 種 nat 的 decoder 那 你 有 explicit 去 model output 長 度 應 該 是 多 少 的 話 你 就 比 較 有 機 會 去 控 制 你 的 decoder 輸 出 的 長 度 應 該 是 多 少 你 就 可 以 做 種 種 的 變 化 | 
	ML2021_ASR_ST-43 | 
	[
  50361,
  50364,
  1541,
  8990,
  19855,
  10907,
  51,
  326,
  310,
  2044,
  1546,
  41908,
  39823,
  50480,
  50480,
  4184,
  11284,
  1541,
  2218,
  1546,
  42821,
  19866,
  50612,
  50612,
  4184,
  2412,
  26202,
  8990,
  41908,
  39823,
  19855,
  37,
  525,
  19588,
  5023,
  50734,
  50734,
  4184,
  11284,
  1541,
  45,
  2218,
  1546,
  42821,
  19866,
  50846,
  50846,
  4184,
  45,
  2218,
  1546,
  42821,
  19866,
  2412,
  8990,
  2131,
  39289,
  5620,
  50950,
  50950,
  42766,
  48707,
  25491,
  2166,
  12290,
  116,
  7781,
  1546,
  15353,
  13127,
  51042,
  51042,
  46714,
  16940,
  18888,
  4622,
  51116,
  51116,
  11614,
  33540,
  12088,
  45,
  2218,
  1546,
  42821,
  19866,
  12290,
  116,
  7781,
  6392,
  15353,
  6240,
  51246,
  51246,
  2166,
  16657,
  2412,
  8990,
  11665,
  9902,
  51346,
  51346,
  33540,
  12088,
  45,
  2218,
  1546,
  42821,
  19866,
  26087,
  12290,
  116,
  7781,
  1546,
  15353,
  13127,
  51478,
  51478,
  4184,
  13119,
  3581,
  10907,
  31348,
  18034,
  14245,
  11336,
  20643,
  51552,
  51552,
  31706,
  39035,
  2166,
  12648,
  40859,
  5823,
  7093,
  4275,
  21195,
  18961,
  25368,
  33725,
  51668,
  51668,
  11932,
  10251,
  19202,
  11,
  9990,
  31217,
  51744
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>那你就把那個classifier的output除以2<|2.94|><|2.94|>他講話速度就變兩倍快<|4.38|><|4.38|>然後如果你想要講話放慢速度<|7.42|><|7.42|>那你就把那個classifier輸出的長度<|10.26|><|10.26|>他predict出來的長度乘兩倍<|12.12|><|12.12|>那你的decoder說話的速度就變兩倍慢<|15.78|><|15.78|>所以你可以如果有這種NAT的decoder<|19.26|><|19.26|>那你有explicit的去model output的長度應該是多少的話<|22.74|><|22.74|>你就比較有機會去控制你的decoder輸出的長度應該是多少<|27.98|><|27.98|>你就可以做種種的變化<|29.42|><|endoftext|> | |
| 
	那 為 什 麼 nat 的 decoder 最 近 是 一 個 熱 門 的 研 究 主 題 呢 它 之 所 以 是 一 個 熱 門 研 究 主 題 就 是 它 雖 然 表 面 上 看 起 來 有 種 種 的 厲 害 之 處 尤 其 是 平 行 化 是 它 最 大 的 優 勢 但 是 nat 的 decoder 呢 它 的 performance 往 往 都 不 如 at 的 decoder 所 以 發 現 有 很 多 很 多 的 研 究 試 圖 讓 nat 的 decoder 的 performance 越 來 越 好 試 圖 去 逼 近 at 的 decoder 不 過 今 天 你 要 讓 nat 的 decoder | 
	ML2021_ASR_ST-44 | 
	[
  50361,
  50364,
  4184,
  41045,
  16075,
  20754,
  11665,
  9902,
  1546,
  346,
  2582,
  32999,
  3588,
  17,
  50511,
  50511,
  5000,
  11932,
  11103,
  31217,
  13127,
  3111,
  26327,
  16313,
  35477,
  10251,
  50583,
  50583,
  10213,
  13119,
  38386,
  4275,
  11932,
  11103,
  12744,
  20645,
  31217,
  13127,
  50735,
  50735,
  4184,
  41045,
  16075,
  20754,
  11665,
  9902,
  12290,
  116,
  7781,
  1546,
  15353,
  13127,
  50877,
  50877,
  5000,
  79,
  24945,
  29741,
  1546,
  15353,
  13127,
  2930,
  246,
  16313,
  35477,
  50970,
  50970,
  4184,
  18961,
  1479,
  1291,
  1068,
  4622,
  11103,
  1546,
  31217,
  13127,
  3111,
  26327,
  16313,
  35477,
  20645,
  51153,
  51153,
  7239,
  42766,
  13119,
  2412,
  33005,
  45,
  2218,
  1546,
  1479,
  1291,
  1068,
  51327,
  51327,
  4184,
  43320,
  3121,
  4770,
  270,
  1546,
  6734,
  8014,
  338,
  5598,
  1546,
  15353,
  13127,
  26087,
  1541,
  41492,
  21358,
  51501,
  51501,
  41045,
  25174,
  2412,
  46520,
  6734,
  48707,
  25491,
  18961,
  1479,
  1291,
  1068,
  12290,
  116,
  7781,
  1546,
  15353,
  13127,
  26087,
  1541,
  41492,
  51763,
  51763,
  2166,
  36781,
  10907,
  16516,
  16516,
  1546,
  26327,
  23756,
  51835
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>那為什麼NAT的Decoder最近是一個熱門的研究主題呢?<|4.04|><|4.04|>它之所以是一個熱門研究主題就是<|6.08|><|6.08|>它雖然表面上看起來有種種的厲害之處<|10.76|><|10.76|>尤其是平行化是它最大的優勢<|13.36|><|13.36|>但是NAT的Decoder呢<|15.08|><|15.08|>它的Performance往往都不如AT的Decoder<|19.36|><|19.36|>所以發現有很多很多的研究<|21.16|><|21.16|>試圖讓NAT的Decoder的Performance越來越好<|24.24|><|24.24|>試圖去逼近AT的Decoder<|27.40|><|27.40|>不過今天你要讓NAT的Decoder<|29.08|><|endoftext|> | |
| 
	跟 at 的 decoder performance 一 樣 好 你 必 須 要 用 非 常 多 的 trick 才 能 夠 辦 到 就 at 的 decoder 隨 便 train 一 下 nat 的 decoder 你 要 花 很 多 力 氣 才 有 可 能 跟 at 的 performance 差 不 多 為 什 麼 nat 的 decoder performance 不 好 呢 有 一 個 問 題 我 們 今 天 就 不 細 講 了 叫 做 multi-modality 的 問 題 那 如 果 你 想 要 這 個 深 入 了 解 nat 那 就 把 之 前 上 課 助 教 這 個 上 課 補 充 的 內 容 呢 連 結 放 在 這 邊 給 大 家 參 考 | 
	ML2021_ASR_ST-45 | 
	[
  50361,
  50364,
  4184,
  18987,
  45,
  2218,
  1546,
  35,
  3045,
  19866,
  46777,
  1541,
  8990,
  32745,
  37232,
  1546,
  23230,
  242,
  44704,
  13557,
  14475,
  6240,
  30,
  50566,
  50566,
  11284,
  9574,
  7239,
  1541,
  8990,
  32745,
  37232,
  23230,
  242,
  44704,
  13557,
  14475,
  5620,
  50668,
  50668,
  11284,
  6306,
  244,
  5823,
  17571,
  8833,
  5708,
  4200,
  21670,
  2412,
  16516,
  16516,
  1546,
  20939,
  9574,
  39289,
  50902,
  50902,
  1530,
  97,
  9572,
  1541,
  16716,
  8082,
  23756,
  1541,
  11284,
  8661,
  39156,
  12827,
  103,
  7978,
  95,
  51032,
  51032,
  11189,
  45,
  2218,
  1546,
  35,
  3045,
  19866,
  6240,
  51118,
  51118,
  45224,
  23232,
  837,
  719,
  29510,
  29510,
  7182,
  1960,
  8238,
  2218,
  1546,
  35,
  3045,
  19866,
  51332,
  51332,
  7239,
  38927,
  2412,
  20778,
  20778,
  1546,
  23230,
  242,
  44704,
  51422,
  51422,
  22099,
  2523,
  244,
  21195,
  45,
  2218,
  1546,
  35,
  3045,
  19866,
  1546,
  23232,
  837,
  719,
  25761,
  3763,
  25761,
  2131,
  51576,
  51576,
  22099,
  2523,
  244,
  6734,
  2215,
  120,
  17463,
  2218,
  1546,
  35,
  3045,
  19866,
  51734,
  51734,
  28193,
  12074,
  32085,
  21195,
  45,
  2218,
  1546,
  35,
  3045,
  19866,
  51818
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>跟AT的decoder performance一樣好<|2.00|><|2.00|>你必須要用非常多的trick才能辦到<|4.88|><|4.88|>AT的decoder隨便train一下<|6.52|><|6.52|>NAT的decoder你要花很多力氣<|8.26|><|8.26|>才有可能跟AT的performance差不多<|10.26|><|10.26|>那為什麼NAT的decoder performance不好呢<|13.12|><|13.12|>有一個問題我們今天就不細講了<|15.96|><|15.96|>叫做Multi-Modality的問題<|18.80|><|18.80|>那如果你想要深入了解NAT<|22.16|><|22.16|>那就把之前上課補充的內容<|26.52|><|26.52|>連結放在這邊給大家參考<|29.20|><|endoftext|> | |
| 
	nat 也 是 一 個 大 坑 啊 助 教 也 是 講 了 一 個 半 小 時 才 稍 微 給 大 家 一 個 nat 的 大 概 大 致 的 描 述 所 以 這 也 是 個 大 坑 不 是 我 們 今 天 可 以 講 的 就 只 是 告 訴 大 家 說 世 界 上 有 nat 這 個 東 西 而 已 那 接 下 來 我 們 就 要 講 encoder 跟 decoder 它 們 中 間 是 怎 麼 傳 遞 資 訊 的 了 也 就 是 我 們 要 講 剛 才 我 們 刻 意 把 它 遮 起 來 的 那 一 塊 那 如 果 你 仔 細 觀 察 這 一 塊 的 話 | 
	ML2021_ASR_ST-46 | 
	[
  50361,
  50364,
  9678,
  2218,
  1546,
  42821,
  19866,
  3389,
  22977,
  2131,
  50464,
  50464,
  2166,
  28531,
  8313,
  230,
  4275,
  9254,
  14392,
  6392,
  1546,
  6903,
  618,
  18888,
  8225,
  23626,
  4511,
  50608,
  50608,
  2218,
  1546,
  42821,
  19866,
  48890,
  27364,
  83,
  7146,
  8861,
  50690,
  50690,
  45,
  2218,
  1546,
  42821,
  19866,
  32085,
  20127,
  20778,
  13486,
  24090,
  50777,
  50777,
  18888,
  2412,
  16657,
  9678,
  2218,
  1546,
  50242,
  37876,
  50877,
  50877,
  4184,
  18987,
  45,
  2218,
  1546,
  42821,
  19866,
  3389,
  15769,
  6240,
  51020,
  51020,
  2412,
  8990,
  17197,
  5884,
  12074,
  3111,
  1960,
  41588,
  11932,
  2289,
  51162,
  51162,
  19855,
  10907,
  44,
  723,
  72,
  12,
  44,
  378,
  1860,
  1546,
  17197,
  51304,
  51304,
  4184,
  13119,
  38386,
  4275,
  24043,
  14028,
  2289,
  17278,
  45,
  2218,
  51472,
  51472,
  46887,
  16075,
  32442,
  5708,
  3549,
  110,
  8083,
  250,
  2347,
  227,
  1546,
  28472,
  25750,
  51690,
  51690,
  36252,
  17144,
  12744,
  3581,
  22821,
  17798,
  6868,
  47375,
  26504,
  51824
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>NAT也是一個大坑啊<|1.88|><|1.88|>助教也是講了一個半小時<|3.76|><|3.76|>才稍微給大家一個NAT的大概大致的描述<|7.72|><|7.72|>所以這也是個大坑<|8.72|><|8.72|>不是我們今天可以講的<|10.44|><|10.44|>就只是告訴大家說<|11.68|><|11.68|>世界上有NAT這個東西而已<|13.80|><|13.80|>那接下來呢<|14.80|><|14.80|>我們就要講Encoder跟Decoder<|17.64|><|17.64|>他們中間是怎麼傳遞資訊的了<|21.04|><|21.04|>也就是我們要講<|22.20|><|22.20|>剛才我們刻意把它遮起來的那一塊<|25.56|><|25.56|>那如果你仔細觀察這一塊的話<|27.84|><|endoftext|> | |
| 
	這 塊 呢 叫 做 cross attention 它 是 連 接 encoder 跟 decoder 之 間 的 橋 樑 那 這 一 塊 裡 面 啊 你 會 發 現 有 兩 個 輸 入 來 自 於 encoder encoder 提 供 兩 個 箭 頭 然 後 decoder 提 供 了 一 個 箭 頭 然 後 所 以 從 左 邊 這 兩 個 箭 頭 decoder 可 以 讀 到 encoder 的 輸 出 那 這 個 模 組 實 際 上 是 怎 麼 運 作 的 呢 | 
	ML2021_ASR_ST-47 | 
	[
  50361,
  50364,
  45,
  2218,
  22021,
  8990,
  3582,
  14872,
  239,
  4905,
  50458,
  50458,
  37618,
  21936,
  22021,
  11932,
  2289,
  8990,
  30018,
  46997,
  50552,
  50552,
  18888,
  10415,
  235,
  39152,
  17798,
  6868,
  8990,
  45,
  2218,
  1546,
  32044,
  3582,
  6784,
  112,
  1546,
  11673,
  237,
  3316,
  108,
  50750,
  50750,
  7239,
  2664,
  22021,
  3338,
  3582,
  14872,
  239,
  50800,
  50800,
  7296,
  5884,
  12074,
  6723,
  11932,
  1546,
  50886,
  50886,
  3111,
  36859,
  31080,
  6868,
  4622,
  50948,
  50948,
  24486,
  5708,
  2412,
  45,
  2218,
  6287,
  26978,
  48420,
  51054,
  51054,
  4184,
  40012,
  6240,
  51104,
  51104,
  5884,
  3111,
  4275,
  11932,
  16257,
  66,
  19866,
  9678,
  35,
  3045,
  19866,
  51246,
  51246,
  20486,
  5975,
  11016,
  1541,
  11614,
  40852,
  3330,
  252,
  35380,
  5396,
  232,
  1546,
  2289,
  51416,
  51416,
  6404,
  5620,
  5884,
  4275,
  11932,
  51474,
  51474,
  16940,
  18888,
  5884,
  45500,
  9042,
  42061,
  3330,
  106,
  21670,
  1546,
  4184,
  2257,
  26268,
  51642,
  51642,
  4184,
  45669,
  49385,
  41588,
  25179,
  47550,
  32260,
  26268,
  21358,
  51756
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>這一塊叫做CrossAttention<|3.20|><|3.20|>它是連接Encoder跟Decoder之間的橋樑<|7.74|><|7.74|>那這一塊裡面你會發現有兩個輸入來自於Encoder<|13.92|><|13.92|>Encoder提供兩個箭頭<|16.18|><|16.18|>然後Decoder提供了一個箭頭<|18.88|><|18.88|>所以從左邊這兩個箭頭<|21.68|><|21.68|>Decoder可以讀到Encoder的輸出<|25.22|><|25.22|>那這個模組實際上是怎麼運作的呢<|27.86|><|endoftext|> | |
| 
	那 我 們 就 實 際 把 它 運 作 的 過 程 跟 大 家 展 示 一 下 好 這 個 是 你 的 encoder 輸 入 一 排 向 量 輸 出 一 排 向 量 我 們 叫 它 a1 a2 a3 接 下 來 呢 輪 到 你 的 decoder 你 的 decoder 呢 會 先 吃 begin 當 做 begin 這 個 special 的 token 那 begin 這 個 special 的 token 讀 進 來 以 後 你 可 能 會 經 過 self-attention 這 個 self-attention 是 有 做 mask 的 然 後 得 到 一 個 向 量 就 是 self-attention 就 算 是 有 做 mask 還 是 一 樣 輸 入 多 少 長 度 的 向 量 | 
	ML2021_ASR_ST-48 | 
	[
  50361,
  50364,
  32260,
  26268,
  19855,
  10907,
  34,
  1887,
  38151,
  1251,
  50524,
  50524,
  11284,
  1541,
  36252,
  14468,
  16257,
  66,
  19866,
  9678,
  35,
  3045,
  19866,
  9574,
  11016,
  1546,
  36473,
  5117,
  239,
  50751,
  50751,
  4184,
  32260,
  26268,
  32399,
  2166,
  6236,
  38927,
  2412,
  34623,
  12290,
  116,
  14028,
  3763,
  9722,
  19488,
  16257,
  66,
  19866,
  51060,
  51060,
  16257,
  66,
  19866,
  20949,
  3254,
  249,
  34623,
  11249,
  255,
  19921,
  51173,
  51173,
  10213,
  35,
  3045,
  19866,
  20949,
  3254,
  249,
  2289,
  8990,
  11249,
  255,
  19921,
  51308,
  51308,
  7239,
  21068,
  21975,
  14901,
  2664,
  34623,
  11249,
  255,
  19921,
  51448,
  51448,
  35,
  3045,
  19866,
  6723,
  7422,
  222,
  4511,
  16257,
  66,
  19866,
  1546,
  12290,
  116,
  7781,
  51625,
  51625,
  4184,
  6287,
  41908,
  30052,
  10376,
  34837,
  5708,
  1541,
  11614,
  32772,
  11914,
  1546,
  6240,
  51757
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>那我們就實際把它運作的過程跟大家展示一下<|3.90|><|3.90|>這個是你的encoder輸入一排向量輸出一排向量<|7.00|><|7.00|>我們叫他A1 A2 A3<|8.60|><|8.60|>接下來呢輪到你的decoder<|11.20|><|11.20|>你的decoder會先吃begin當作begin這個special的token<|16.10|><|16.10|>那begin這個special的token讀進來以後<|18.40|><|18.40|>你可能會經過self-attention<|20.30|><|20.30|>這個self-attention是有做mask的<|23.10|><|23.10|>然後得到一個向量<|25.10|><|25.10|>就像self-attention就算是有做mask<|27.30|><|27.30|>還是一樣輸入多少長度的向量<|29.50|><|endoftext|> | |
| 
	輸 出 就 是 多 少 向 量 所 以 輸 入 一 個 向 量 輸 出 一 個 向 量 然 後 接 下 來 把 這 個 向 量 呢 乘 上 一 個 矩 陣 做 一 個 transform 得 到 一 個 query 叫 做 q 然 後 這 邊 的 a1 a2 a3 呢 也 都 產 生 key key1 key2 key3 那 把 這 個 q 跟 k1 k2 k3 去 計 算 attention 的 分 數 得 到 α1 α2 α3 當 然 你 可 能 一 樣 會 做 softmax 把 它 稍 微 做 一 下 normalization 所 以 我 這 邊 加 一 個 ' | 
	ML2021_ASR_ST-49 | 
	[
  50361,
  50364,
  46714,
  3111,
  10376,
  34837,
  42061,
  32772,
  11914,
  1546,
  8816,
  29649,
  47349,
  43491,
  25696,
  8861,
  50559,
  50559,
  41427,
  18961,
  22660,
  19866,
  12290,
  116,
  14028,
  2257,
  44647,
  24282,
  26748,
  12290,
  116,
  7781,
  2257,
  44647,
  24282,
  26748,
  50714,
  50714,
  5884,
  19855,
  5000,
  32,
  16,
  316,
  17,
  316,
  18,
  50794,
  50794,
  40012,
  6240,
  12290,
  103,
  4511,
  18961,
  42821,
  19866,
  50924,
  50924,
  18961,
  42821,
  19866,
  6236,
  10108,
  10123,
  650,
  1494,
  13118,
  11914,
  650,
  1494,
  6287,
  7053,
  1013,
  1546,
  83,
  8406,
  51169,
  51169,
  4184,
  650,
  1494,
  6287,
  7053,
  1013,
  1546,
  83,
  8406,
  7422,
  222,
  18214,
  3763,
  3588,
  5661,
  51284,
  51284,
  2166,
  16657,
  6236,
  15145,
  8816,
  927,
  12,
  1591,
  1251,
  51379,
  51379,
  6287,
  927,
  12,
  1591,
  1251,
  1541,
  2412,
  10907,
  3799,
  74,
  1546,
  51519,
  51519,
  10213,
  5916,
  4511,
  8990,
  24282,
  26748,
  51619,
  51619,
  3111,
  12760,
  927,
  12,
  1591,
  1251,
  3111,
  19497,
  1541,
  2412,
  10907,
  3799,
  74,
  51729,
  51729,
  25583,
  22977,
  12290,
  116,
  14028,
  41492,
  15353,
  13127,
  1546,
  24282,
  26748,
  51839
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>輸出就是多少向量<|1.86|><|1.86|>所以輸入一個向量<|2.96|><|2.96|>輸出一個向量<|3.80|><|3.80|>然後接下來把這個向量呢<|5.50|><|5.50|>乘上一個矩陣<|7.10|><|7.10|>做一個Transform<|8.70|><|8.70|>得到一個Query<|10.06|><|10.06|>叫做Q<|11.20|><|11.20|>然後這邊的A1 A2 A3呢<|13.26|><|13.26|>也都產生Key<|14.66|><|14.66|>Key1 Key2 Key3<|15.90|><|15.90|>那把這個Q跟K1 K2 K3<|18.40|><|18.40|>去計算Attention的分數<|20.56|><|20.56|>得到α1 α2 α3<|23.16|><|23.16|>當然你可能一樣會做Softmax<|25.40|><|25.40|>把它稍微做一下Normalization<|27.96|><|27.96|>所以我這邊加一個π<|29.10|><|endoftext|> | |
| 
	代 表 它 可 能 是 做 過 normalization 接 下 來 再 把 α1 α2 α3 就 乘 上 v1 v2 v3 再 把 它 weighted sum 加 起 來 會 得 到 v 那 這 一 個 v 就 是 接 下 來 會 丟 到 fully-connected 的 network 做 接 下 來 的 處 理 那 這 個 步 驟 就 是 q 來 自 於 decoder k 跟 v 來 自 於 encoder 這 個 步 驟 就 叫 做 cross attention | 
	ML2021_ASR_ST-50 | 
	[
  50361,
  50364,
  12290,
  116,
  7781,
  5620,
  41492,
  24282,
  26748,
  50457,
  50457,
  7239,
  12290,
  116,
  14028,
  8990,
  24282,
  26748,
  50512,
  50512,
  12290,
  116,
  7781,
  8990,
  24282,
  26748,
  50554,
  50554,
  10213,
  40012,
  16075,
  6287,
  24282,
  26748,
  6240,
  50639,
  50639,
  2930,
  246,
  5708,
  8990,
  5881,
  102,
  8842,
  96,
  50719,
  50719,
  10907,
  8990,
  33339,
  837,
  50799,
  50799,
  5916,
  4511,
  8990,
  35550,
  50867,
  50867,
  19855,
  10907,
  48,
  50924,
  50924,
  10213,
  22821,
  1546,
  32,
  16,
  316,
  17,
  316,
  18,
  6240,
  51027,
  51027,
  6404,
  7182,
  33299,
  8244,
  42,
  2030,
  51097,
  51097,
  42,
  2030,
  16,
  12759,
  17,
  12759,
  18,
  51159,
  51159,
  4184,
  16075,
  6287,
  48,
  9678,
  42,
  16,
  591,
  17,
  591,
  18,
  51284,
  51284,
  6734,
  30114,
  19497,
  38151,
  1251,
  1546,
  6627,
  30622,
  51392,
  51392,
  5916,
  4511,
  1529,
  16,
  5691,
  17,
  5691,
  18,
  51522,
  51522,
  21707,
  2166,
  16657,
  22977,
  6236,
  10907,
  6455,
  844,
  41167,
  51634,
  51634,
  42061,
  10415,
  235,
  39152,
  10907,
  8861,
  45,
  24440,
  2144,
  51762,
  51762,
  7239,
  1654,
  22821,
  9990,
  8990,
  4339,
  51819
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>代表他可能是做過Normalization<|2.00|><|2.00|>接下來再把α1,α2,α3<|4.40|><|4.40|>乘上V1,V2,V3<|7.00|><|7.00|>再把它Weighted sum加起來<|9.20|><|9.20|>你得到V<|10.80|><|10.80|>那這個V就是接下來<|13.70|><|13.70|>會丟到Fully Connected的Network<|15.90|><|15.90|>做接下來的處理<|17.90|><|17.90|>那這個步驟就是<|19.90|><|19.90|>Q來自於Decoder<|22.40|><|22.40|>K跟V來自於Encoder<|24.70|><|24.70|>這個步驟就叫做Cross-Attention<|28.00|><|endoftext|> | |
| 
	所 以 decoder 就 是 憑 藉 著 產 生 一 個 q 去 encoder 這 邊 抽 取 資 訊 出 來 當 做 接 下 來 的 decoder 的 fully-connected 的 network 的 input 好 那 這 個 就 是 cross attention 運 作 的 過 程 當 然 這 個 就 現 在 假 設 產 生 第 二 個 第 一 個 這 個 中 文 的 字 產 生 一 個 機 接 下 來 的 運 作 也 是 一 模 一 樣 的 輸 入 begin 輸 入 機 產 生 一 個 向 量 這 個 向 量 一 樣 乘 上 一 個 linear 的 transform | 
	ML2021_ASR_ST-51 | 
	[
  50361,
  50364,
  19105,
  17571,
  5000,
  16657,
  1541,
  10907,
  8816,
  45,
  24440,
  2144,
  50464,
  50464,
  40012,
  8623,
  16075,
  1529,
  16,
  11,
  1529,
  17,
  11,
  1529,
  18,
  50584,
  50584,
  2930,
  246,
  5708,
  53,
  16,
  11,
  53,
  17,
  11,
  53,
  18,
  50714,
  50714,
  8623,
  42061,
  4360,
  397,
  292,
  2408,
  9990,
  21670,
  50824,
  50824,
  2166,
  5916,
  4511,
  53,
  50904,
  50904,
  4184,
  6287,
  53,
  5620,
  40012,
  51049,
  51049,
  6236,
  940,
  253,
  4511,
  37,
  2150,
  11653,
  292,
  1546,
  31890,
  1902,
  51159,
  51159,
  10907,
  40012,
  1546,
  39289,
  13876,
  51259,
  51259,
  4184,
  6287,
  31429,
  24023,
  253,
  5620,
  51359,
  51359,
  48,
  3763,
  9722,
  19488,
  35,
  3045,
  19866,
  51484,
  51484,
  42,
  9678,
  53,
  3763,
  9722,
  19488,
  16257,
  66,
  19866,
  51599,
  51599,
  6287,
  31429,
  24023,
  253,
  3111,
  19855,
  10907,
  34,
  1887,
  12,
  38151,
  1251,
  51764
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>所以Decoder就是憑藉著產生一個Queue<|3.20|><|3.20|>去Encoder這邊抽取資訊出來<|6.08|><|6.08|>當作接下來的Decoder裡面的<|9.84|><|9.84|>Fully Connected Network的Input<|12.00|><|12.00|>好,那這個就是Cross-Attention的運作的過程<|14.64|><|14.64|>當然,現在假設產生第一個中文的字<|20.56|><|20.56|>產生一個G,接下來的運作也是一模一樣的<|23.76|><|23.76|>輸入begin,輸入G,產生一個向量<|26.80|><|26.80|>這個向量一樣乘上一個linear的transform<|29.76|><|29.76|><|endoftext|> | |
| 
	得 到 q' 得 到 一 個 query 這 個 query 一 樣 跟 k1 k2 k3 去 計 算 attention 的 分 數 一 樣 跟 v1 v2 v3 做 weighted sum 做 加 權 然 後 加 起 來 得 到 v' 交 給 接 下 來 fully-connected network 做 處 理 好 所 以 這 就 是 這 個 cross attention 的 運 作 的 過 程 那 這 邊 有 一 個 實 際 的 文 獻 上 的 cross attention 它 所 做 的 事 情 的 效 果 展 示 不 過 我 這 邊 要 稍 微 說 明 一 下 | 
	ML2021_ASR_ST-52 | 
	[
  50361,
  50364,
  7239,
  35,
  3045,
  19866,
  5620,
  29713,
  239,
  21782,
  231,
  19382,
  33299,
  8244,
  8990,
  24011,
  622,
  50524,
  50524,
  6734,
  16257,
  66,
  19866,
  22821,
  46022,
  29436,
  35380,
  5396,
  232,
  29741,
  50668,
  50668,
  13118,
  11914,
  40012,
  1546,
  35,
  3045,
  19866,
  32399,
  1546,
  50856,
  50856,
  37,
  2150,
  11653,
  292,
  12640,
  1546,
  4575,
  2582,
  50964,
  50964,
  2131,
  11,
  4184,
  6287,
  5620,
  34,
  1887,
  12,
  38151,
  1251,
  1546,
  32772,
  11914,
  1546,
  8816,
  29649,
  51096,
  51096,
  21707,
  11,
  12648,
  31706,
  39035,
  33299,
  8244,
  40760,
  5975,
  17174,
  1546,
  22381,
  51392,
  51392,
  33299,
  8244,
  8990,
  38,
  11,
  40012,
  1546,
  32772,
  11914,
  22021,
  2257,
  41908,
  22977,
  1546,
  51552,
  51552,
  12290,
  116,
  14028,
  650,
  1494,
  11,
  12290,
  116,
  14028,
  38,
  11,
  33299,
  8244,
  8990,
  24282,
  26748,
  51704,
  51704,
  6287,
  24282,
  26748,
  22977,
  2930,
  246,
  5708,
  8990,
  28263,
  1546,
  24999,
  837,
  51852,
  51852
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>得到QPy,得到一個Query<|2.24|><|2.24|>這個Query一樣跟K1、K2、K3去計算Attention的分數<|6.34|><|6.34|>一樣跟V1、V2、V3做Weighted Sum,做加權<|10.90|><|10.90|>然後加起來得到Vpy<|13.10|><|13.10|>交給接下來的Fully Connected Neural做處理<|16.60|><|16.60|>所以這就是這個Cross-Attention的運作的過程<|21.04|><|21.04|>那這邊有一個實際的文獻上的Cross-Attention<|25.40|><|25.40|>它所做的事情的效果展示<|27.64|><|27.64|>不過我這邊要稍微說明一下<|29.30|><|endoftext|> | |
| 
	這 個 圖 並 不 是 來 自 於 transformer 這 篇 paper 它 的 title 叫 做 listen, attend and spell 是 比 較 早 使 用 sequence to sequence model 成 功 做 語 音 辨 識 的 一 篇 文 章 它 發 表 在 icass 2016 2016 年 的 icass 我 記 得 那 一 次 是 在 上 海 辦 的 我 還 特 別 有 親 耳 聽 了 這 篇 paper 的 報 告 這 個 現 場 也 是 人 山 人 海 大 家 都 覺 得 哇 這 個 非 常 的 神 奇 sequence to sequence 硬 做 | 
	ML2021_ASR_ST-53 | 
	[
  50361,
  50364,
  5916,
  4511,
  48,
  47,
  88,
  11,
  5916,
  4511,
  8990,
  35550,
  50476,
  50476,
  6287,
  35550,
  22977,
  9678,
  42,
  16,
  1231,
  42,
  17,
  1231,
  42,
  18,
  6734,
  30114,
  19497,
  38151,
  1251,
  1546,
  6627,
  30622,
  50681,
  50681,
  22977,
  9678,
  53,
  16,
  1231,
  53,
  17,
  1231,
  53,
  18,
  10907,
  4360,
  397,
  292,
  8626,
  11,
  10907,
  9990,
  40212,
  50909,
  50909,
  10213,
  9990,
  21670,
  5916,
  4511,
  53,
  8200,
  51019,
  51019,
  28455,
  17798,
  40012,
  1546,
  37,
  2150,
  11653,
  292,
  1734,
  1807,
  10907,
  39289,
  13876,
  51194,
  51194,
  7239,
  2664,
  5620,
  6287,
  34,
  1887,
  12,
  38151,
  1251,
  1546,
  32772,
  11914,
  1546,
  8816,
  29649,
  51416,
  51416,
  4184,
  22821,
  2412,
  8990,
  10376,
  34837,
  1546,
  17174,
  29057,
  119,
  5708,
  1546,
  34,
  1887,
  12,
  38151,
  1251,
  51634,
  51634,
  11284,
  5966,
  10907,
  1546,
  24675,
  1546,
  43076,
  9319,
  43491,
  25696,
  51746,
  51746,
  28193,
  1654,
  22821,
  4275,
  10415,
  235,
  39152,
  4622,
  11100,
  8861,
  51829
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>這個圖並不是來自於Transformer<|3.40|><|3.40|>這篇文章的名稱是Listen, Attend, and Spill<|7.24|><|7.24|>是比較早的使用Seq2SeqModel成功做語音辨識的文章<|14.04|><|14.04|>它發表在2016年的iCast上海辦的<|20.08|><|20.08|>我還特別有親耳聽了這篇文章的報告<|23.16|><|23.16|>現場還是人山人海<|24.88|><|24.88|><|endoftext|> | |
| 
	居 然 可 以 做 語 音 辨 識 而 且 跟 state of the art 的 結 果 當 時 也 就 只 差 了 一 點 點 而 已 當 時 這 篇 paper 裡 面 的 結 果 它 展 現 的 sequence to sequence model 其 實 沒 有 贏 過 state of the art 就 是 當 時 最 好 的 語 音 辨 識 系 統 但 是 只 差 一 點 點 而 已 所 以 讓 大 家 覺 得 說 sequence to sequence 用 在 語 音 辨 識 上 似 乎 是 有 潛 力 的 所 以 它 其 實 不 是 那 個 transformer 那 時 候 的 encoder 跟 decoder 都 是 用 lstm | 
	ML2021_ASR_ST-54 | 
	[
  50361,
  50364,
  6287,
  2523,
  244,
  35934,
  7296,
  3763,
  9722,
  19488,
  33339,
  837,
  260,
  50534,
  50534,
  2664,
  20878,
  229,
  17174,
  11957,
  254,
  1546,
  15940,
  49606,
  1541,
  35819,
  11,
  46827,
  11,
  293,
  1738,
  373,
  50726,
  50726,
  1541,
  25174,
  21176,
  1546,
  22982,
  9254,
  10637,
  80,
  17,
  10637,
  80,
  44,
  41147,
  11336,
  32311,
  10907,
  31348,
  18034,
  9830,
  101,
  43143,
  1546,
  17174,
  11957,
  254,
  51066,
  51066,
  11284,
  14637,
  17571,
  3581,
  41103,
  34128,
  72,
  34,
  525,
  5708,
  20078,
  23626,
  1546,
  51368,
  51368,
  1654,
  7824,
  38446,
  2412,
  42117,
  4450,
  111,
  21524,
  2289,
  2664,
  20878,
  229,
  17174,
  11957,
  254,
  1546,
  17803,
  16846,
  51522,
  51522,
  9581,
  21446,
  25583,
  4035,
  24113,
  4035,
  20078,
  51608,
  51608
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>居然可以做語音辨識<|2.24|><|2.24|>而且跟 State-of-the-art 的結果<|4.96|><|4.96|>當時也就只差了一點點而已<|7.20|><|7.20|>當時這篇 paper 裡面的結果<|8.64|><|8.64|>他展現的 Sequence-to-Sequence Model<|10.24|><|10.24|>其實沒有贏過 State-of-the-art<|12.72|><|12.72|>就是當時最好的語音辨識系統<|15.04|><|15.04|>但是只差一點點而已<|17.20|><|17.20|>所以讓大家覺得說<|18.56|><|18.56|>Sequence-to-Sequence 用在語音辨識上<|21.28|><|21.28|>似乎是有潛力的<|23.60|><|23.60|>所以他其實不是那個 Transformer<|25.76|><|25.76|>那時候的 Encoder 跟 Decoder<|27.44|><|27.44|>都是用 LSTM<|29.12|><|endoftext|> | |
| 
	不 過 那 個 時 候 就 已 經 有 cross attention 這 樣 子 的 機 制 了 所 以 在 有 transformer 之 前 其 實 就 已 經 有 cross attention 這 樣 的 機 制 只 是 沒 有 self-attention 的 機 制 所 以 是 先 有 cross attention 後 來 才 有 self-attention 然 後 那 個 時 候 啊 如 果 你 是 用 sequence to sequence 的 model 不 知 道 為 什 麼 paper 的 title 一 定 要 有 三 個 動 詞 對 那 個 時 候 一 定 要 有 三 個 動 詞 才 能 夠 代 表 你 是 在 做 sequence to sequence 的 model | 
	ML2021_ASR_ST-55 | 
	[
  50361,
  50364,
  9636,
  227,
  5823,
  6723,
  10907,
  31348,
  18034,
  9830,
  101,
  43143,
  50476,
  50476,
  22942,
  9678,
  4533,
  12,
  2670,
  12,
  3322,
  12,
  446,
  27949,
  35181,
  50612,
  50612,
  13118,
  6611,
  6404,
  3111,
  14003,
  21679,
  2289,
  19202,
  8216,
  48420,
  50724,
  50724,
  13118,
  6611,
  2664,
  20878,
  229,
  3035,
  220,
  32399,
  1546,
  35181,
  50796,
  50796,
  5000,
  43491,
  9581,
  1546,
  46859,
  655,
  12,
  1353,
  12,
  10637,
  358,
  655,
  17105,
  50876,
  50876,
  14139,
  6963,
  18464,
  237,
  8816,
  4533,
  12,
  2670,
  12,
  3322,
  12,
  446,
  51000,
  51000,
  5620,
  13118,
  6611,
  8661,
  20715,
  31348,
  18034,
  9830,
  101,
  43143,
  25368,
  33725,
  51116,
  51116,
  11189,
  14003,
  21679,
  19202,
  8216,
  48420,
  51224,
  51224,
  7239,
  21195,
  6868,
  11274,
  4622,
  51292,
  51292,
  10637,
  358,
  655,
  12,
  1353,
  12,
  10637,
  358,
  655,
  220,
  9254,
  3581,
  31348,
  18034,
  9830,
  101,
  43143,
  5708,
  51428,
  51428,
  7384,
  120,
  2930,
  236,
  1541,
  2412,
  35622,
  249,
  13486,
  1546,
  51544,
  51544,
  7239,
  5000,
  14139,
  7296,
  20754,
  27938,
  260,
  51652,
  51652,
  4184,
  14010,
  1546,
  29584,
  19866,
  220,
  9678,
  12427,
  19866,
  51736,
  51736,
  22796,
  9254,
  441,
  6840,
  44,
  51820
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>不過那個時候就已經有 cross-attention 這樣子的機制了<|5.80|><|5.80|>所以在有 transformer 之前<|7.70|><|7.70|>其實就已經有 cross-attention 這樣的機制<|10.00|><|10.00|>只是沒有 self-attention 的機制<|12.30|><|12.30|>所以是先有 cross-attention 後來才有 self-attention<|15.60|><|15.60|>然後那個時候如果你是用 sequence to sequence 的 model<|18.90|><|18.90|>不知道為什麼 paper 的 title 一定要有三個動詞<|22.40|><|22.40|>對,那個時候一定要有三個動詞<|24.40|><|24.40|>才能夠代表你是在做 sequence to sequence 的 model<|27.80|><|endoftext|> | |
| 
	所 以 像 這 篇 是 listen, attend and spell 告 訴 它 說 機 器 要 聽 聲 音 然 後 做 attention 就 cross attention spell 就 是 把 它 聽 到 的 東 西 把 它 拼 出 來 然 後 我 特 別 放 這 個 圖 是 想 要 跟 你 讓 你 想 可 以 比 較 容 易 想 像 這 個 cross attention 是 怎 麼 運 作 的 好 這 一 段 是 聲 音 訊 號 是 機 器 的 輸 入 那 聲 音 訊 號 輸 入 給 這 個 encoder 的 時 候 它 是 用 一 串 向 量 來 表 示 一 排 向 量 來 表 示 所 以 這 是 時 間 然 後 這 邊 是 一 排 一 排 一 個 一 個 的 向 量 | 
	ML2021_ASR_ST-56 | 
	[
  50361,
  50364,
  28193,
  20754,
  14010,
  3111,
  25338,
  2412,
  3278,
  12,
  1591,
  1251,
  220,
  24842,
  1546,
  17543,
  25491,
  2289,
  50654,
  50654,
  7239,
  3581,
  2412,
  31782,
  220,
  32442,
  50749,
  50749,
  14139,
  3111,
  25338,
  2412,
  3278,
  12,
  1591,
  1251,
  220,
  39425,
  17543,
  25491,
  50864,
  50864,
  36859,
  6963,
  2698,
  12,
  1591,
  1251,
  27949,
  17543,
  25491,
  50979,
  50979,
  7239,
  1541,
  10108,
  2412,
  3278,
  12,
  1591,
  1251,
  220,
  5661,
  3763,
  18888,
  2412,
  2698,
  12,
  1591,
  1251,
  51144,
  51144,
  10213,
  20754,
  14010,
  13119,
  32526,
  9254,
  8310,
  281,
  8310,
  27949,
  2316,
  51309,
  51309,
  17572,
  18987,
  3035,
  27949,
  4876,
  220,
  48161,
  2412,
  10960,
  3338,
  12572,
  6716,
  252,
  51484,
  51484,
  2855,
  11,
  20754,
  14010,
  48161,
  2412,
  10960,
  3338,
  12572,
  6716,
  252,
  51584,
  51584,
  18888,
  8225,
  31649,
  19105,
  17571,
  32526,
  3581,
  10907,
  8310,
  281,
  8310,
  27949,
  2316,
  51754
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>所以像這邊就是Listen, Attend, and Spill<|3.10|><|3.10|>告訴他說機器要聽聲音<|5.56|><|5.56|>然後做Attention,就是Cross-Attention<|7.86|><|7.86|>Spill就是把他聽到的東西把它拼出來<|10.96|><|10.96|>然後我特別放這個圖是想要<|12.56|><|12.56|>讓你比較容易想像這個Cross-Attention是怎麼運作的<|17.26|><|17.26|>好,這一段是聲音訊號,是機器的輸入<|19.80|><|19.80|>那聲音訊號輸入給這個Encoder的時候<|22.10|><|22.10|>它是用一串向量來表示,一排向量來表示<|25.12|><|25.12|>所以這是時間,然後這邊是一排一排一個一個的向量<|29.22|><|endoftext|> | |
| 
	然 後 這 一 排 呀 是 decoder 的 輸 出 decoder 一 次 只 吐 一 個 英 文 的 字 母 所 以 它 會 吐 h 吐 o 吐 w 就 代 表 how 那 如 果 它 已 經 到 一 個 詞 彙 的 邊 界 它 會 自 動 吐 出 空 白 空 白 當 做 是 一 個 特 殊 的 字 母 來 處 理 所 以 機 器 decoder 有 可 能 輸 出 空 白 代 表 一 個 詞 彙 結 束 了 換 一 個 新 的 詞 彙 接 下 來 輸 出 much 就 是 much 然 後 再 輸 出 空 白 | 
	ML2021_ASR_ST-57 | 
	[
  50361,
  50364,
  7239,
  12760,
  22821,
  5620,
  35819,
  11,
  46827,
  11,
  293,
  1738,
  373,
  50519,
  50519,
  31080,
  31592,
  17543,
  34386,
  4275,
  21524,
  29454,
  18034,
  50642,
  50642,
  10213,
  10907,
  38151,
  1251,
  11,
  5620,
  34,
  1887,
  12,
  38151,
  1251,
  50757,
  50757,
  14014,
  373,
  5620,
  16075,
  5000,
  21524,
  4511,
  1546,
  26978,
  42061,
  6852,
  120,
  29741,
  50912,
  50912,
  10213,
  1654,
  38446,
  12744,
  6287,
  2523,
  244,
  1541,
  7093,
  4275,
  50992,
  50992,
  21195,
  2166,
  25174,
  49212,
  7093,
  12760,
  6287,
  34,
  1887,
  12,
  38151,
  1251,
  1541,
  11614,
  32772,
  11914,
  1546,
  51227,
  51227,
  2131,
  11,
  32260,
  28427,
  1541,
  29454,
  18034,
  5396,
  232,
  18616,
  11,
  1541,
  17543,
  34386,
  1546,
  12290,
  116,
  14028,
  51354,
  51354,
  4184,
  29454,
  18034,
  5396,
  232,
  18616,
  12290,
  116,
  14028,
  17798,
  6287,
  16257,
  66,
  19866,
  20643,
  51469,
  51469,
  11284,
  1541,
  9254,
  2257,
  940,
  110,
  24282,
  26748,
  3763,
  40053,
  11,
  2257,
  44647,
  24282,
  26748,
  3763,
  40053,
  51620,
  51620,
  7239,
  16600,
  20788,
  11,
  10213,
  22821,
  1541,
  2257,
  44647,
  2257,
  44647,
  8990,
  8990,
  1546,
  24282,
  26748,
  51825
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>然後這一排是decoder的輸出<|3.56|><|3.56|>decoder一次只吐一個英文的字母<|7.64|><|7.64|>所以它會吐h、吐o、吐w就代表好<|12.14|><|12.14|>那如果它已經到一個詞彙的邊界<|14.60|><|14.60|>它會自動吐出空白<|16.64|><|16.64|>空白當作是一個特殊的字母來處理<|20.40|><|20.40|>所以機器decoder有可能輸出空白<|23.10|><|23.10|>代表一個詞彙結束了<|24.36|><|24.36|>換一個新的詞彙<|25.46|><|25.46|>接下來輸出much<|27.84|><|27.84|>然後再輸出空白<|28.84|><|endoftext|> | |
| 
	再 輸 出 w 這 句 話 其 實 是 一 個 英 文 的 繞 口 令 啦 這 句 話 完 整 的 句 子 是 how much wood would a woodchuck chuck 實 際 上 內 容 是 什 麼 其 實 不 太 重 要 它 就 是 一 句 繞 口 令 就 是 了 那 很 神 奇 機 器 可 以 一 次 吐 一 個 字 母 然 後 而 且 它 可 以 拼 對 正 確 的 詞 彙 好 那 這 邊 這 個 值 是 什 麼 呢 這 個 值 就 是 attention 的 分 數 所 以 當 你 要 產 生 這 個 h 的 時 候 在 產 生 這 個 h 之 前 | 
	ML2021_ASR_ST-58 | 
	[
  50361,
  50364,
  10213,
  32260,
  44647,
  1541,
  42821,
  19866,
  1546,
  12290,
  116,
  7781,
  50542,
  50542,
  42821,
  19866,
  27505,
  14003,
  2392,
  238,
  8990,
  27869,
  17174,
  1546,
  22381,
  35744,
  50746,
  50746,
  7239,
  11284,
  6236,
  2392,
  238,
  71,
  1231,
  2392,
  238,
  78,
  1231,
  2392,
  238,
  86,
  3111,
  19105,
  17571,
  2131,
  50971,
  50971,
  4184,
  13119,
  11284,
  25338,
  4511,
  8990,
  6716,
  252,
  7391,
  247,
  1546,
  14901,
  21185,
  51094,
  51094,
  11284,
  6236,
  9722,
  12572,
  2392,
  238,
  7781,
  23322,
  13558,
  51196,
  51196,
  23322,
  13558,
  13118,
  11914,
  1541,
  8990,
  17682,
  15976,
  232,
  1546,
  22381,
  35744,
  3763,
  39289,
  13876,
  51384,
  51384,
  7239,
  17543,
  34386,
  1479,
  1291,
  1068,
  2412,
  16657,
  12290,
  116,
  7781,
  23322,
  13558,
  51519,
  51519,
  19105,
  17571,
  8990,
  6716,
  252,
  7391,
  247,
  17144,
  44320,
  2289,
  51582,
  51582,
  36338,
  8990,
  12560,
  1546,
  6716,
  252,
  7391,
  247,
  51637,
  51637,
  40012,
  12290,
  116,
  7781,
  76,
  625,
  51756,
  51756,
  10213,
  8623,
  12290,
  116,
  7781,
  23322,
  13558,
  51806
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>再輸出W<|1.30|><|1.30|>這句話其實是一個英文的繞口令<|3.80|><|3.80|>這句話完整的句子是<|5.60|><|5.60|>How much wood would a woodchuck chop?<|7.30|><|7.30|>實際上內容是什麼其實不太重要<|8.90|><|8.90|>它就是一句繞口令就是了<|10.80|><|10.80|>那很神奇機器可以一次<|12.88|><|12.88|>吐一個字母<|14.64|><|14.64|>然後而且它可以聽對正確的詞彙<|17.84|><|17.84|>那這邊這個值是什麼呢<|20.18|><|20.18|>這個值呢就是Attention的分數<|23.78|><|23.78|>所以當你要產生這個H的時候<|26.28|><|26.28|>在產生這個H之前<|27.88|><|endoftext|> | |
| 
	你 的 decoder 會 去 對 encoder 的 輸 出 做 attention 所 以 它 就 attend 在 這 個 地 方 然 後 產 生 h 然 後 attend 在 這 個 地 方 產 生 o attend 在 這 個 地 方 產 生 w 這 邊 顏 色 越 深 就 代 表 說 那 個 attention 的 那 個 分 數 啊 就 那 個 α 的 值 越 大 所 以 你 會 發 現 說 它 產 生 h 的 時 候 它 就 是 聽 到 這 個 地 方 有 h 的 聲 音 所 以 產 生 h 那 接 下 來 再 往 右 移 一 點 產 生 o | 
	ML2021_ASR_ST-59 | 
	[
  50361,
  50364,
  8623,
  12290,
  116,
  7781,
  54,
  50429,
  50429,
  2664,
  34592,
  11103,
  14139,
  1541,
  8990,
  27869,
  17174,
  1546,
  23141,
  252,
  18144,
  49061,
  50554,
  50554,
  2664,
  34592,
  11103,
  14128,
  27662,
  1546,
  34592,
  7626,
  1541,
  50644,
  50644,
  6462,
  709,
  4576,
  576,
  257,
  4576,
  25340,
  7931,
  30,
  50729,
  50729,
  10376,
  34837,
  5708,
  28472,
  25750,
  35851,
  14139,
  1960,
  9455,
  24928,
  50809,
  50809,
  11284,
  5620,
  2257,
  34592,
  23141,
  252,
  18144,
  49061,
  5620,
  2289,
  50904,
  50904,
  4184,
  4563,
  20432,
  26907,
  17543,
  34386,
  6723,
  27505,
  51008,
  51008,
  2392,
  238,
  8990,
  22381,
  35744,
  51096,
  51096,
  10213,
  22942,
  11284,
  6723,
  21524,
  2855,
  15789,
  24293,
  1546,
  6716,
  252,
  7391,
  247,
  51256,
  51256,
  4184,
  22821,
  6287,
  40242,
  35851,
  6240,
  51373,
  51373,
  6287,
  40242,
  6240,
  5620,
  38151,
  1251,
  1546,
  6627,
  30622,
  51553,
  51553,
  7239,
  13118,
  32085,
  33299,
  8244,
  6287,
  39,
  20643,
  51678,
  51678,
  3581,
  33299,
  8244,
  6287,
  39,
  32442,
  51758
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>你的decoder會去對encoder的輸出做attention<|4.92|><|4.92|>所以他就attent在這個地方<|7.24|><|7.24|>然後產生h<|9.28|><|9.28|>然後attent在這個地方產生o<|12.00|><|12.00|>attent在這個地方產生w<|14.28|><|14.28|>這邊顏色越深<|15.60|><|15.60|>就代表說那個attention的那個分數<|18.00|><|18.00|>就那個alpha的值越大<|20.68|><|20.68|>所以你會發現說他產生h的時候<|22.72|><|22.72|>他就是聽到這個地方有h的聲音<|24.84|><|24.84|>所以產生h<|26.08|><|26.08|>那接下來再往右移一點產生o<|28.20|><|endoftext|> | |
| 
	再 往 右 移 一 點 產 生 w 然 後 接 下 來 呢 attend 在 這 個 地 方 產 生 space 然 後 attend 在 這 個 地 方 產 生 m 那 你 會 看 到 說 這 個 attention 的 這 個 weight 是 由 左 上 到 右 下 移 動 的 那 跟 你 想 像 attention 應 該 運 作 的 機 制 很 像 因 為 當 我 們 這 邊 每 次 產 生 一 個 詞 彙 的 時 候 我 們 想 要 專 注 我 們 想 要 考 慮 的 聲 音 訊 號 應 該 就 是 由 左 向 右 所 以 確 實 如 果 你 看 model attention 的 話 它 可 能 也 是 從 左 上 | 
	ML2021_ASR_ST-60 | 
	[
  50361,
  50364,
  18961,
  42821,
  19866,
  6236,
  6734,
  2855,
  22660,
  19866,
  1546,
  12290,
  116,
  7781,
  10907,
  1591,
  1251,
  50610,
  50610,
  7239,
  5000,
  3111,
  1591,
  317,
  3581,
  6287,
  30146,
  50726,
  50726,
  10213,
  33299,
  8244,
  71,
  50828,
  50828,
  10213,
  1591,
  317,
  3581,
  6287,
  30146,
  33299,
  8244,
  78,
  50964,
  50964,
  1591,
  317,
  3581,
  6287,
  30146,
  33299,
  8244,
  86,
  51078,
  51078,
  22821,
  10178,
  237,
  17673,
  25761,
  24043,
  51144,
  51144,
  3111,
  19105,
  17571,
  4622,
  20754,
  1591,
  1251,
  1546,
  20754,
  6627,
  30622,
  51264,
  51264,
  3111,
  20754,
  304,
  7211,
  1546,
  40242,
  25761,
  3582,
  51398,
  51398,
  7239,
  2166,
  6236,
  38927,
  4622,
  5000,
  33299,
  8244,
  71,
  20643,
  51500,
  51500,
  5000,
  5620,
  21524,
  4511,
  6287,
  30146,
  2412,
  71,
  1546,
  29454,
  18034,
  51606,
  51606,
  7239,
  33299,
  8244,
  71,
  51668,
  51668,
  4184,
  40012,
  8623,
  29510,
  22060,
  8204,
  119,
  19202,
  33299,
  8244,
  78,
  51774
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>再往右移一點產生W<|2.34|><|2.34|>然後接下來呢<|3.64|><|3.64|>Attent在這個地方產生Space<|5.80|><|5.80|>然後Attent在這個地方產生N<|8.36|><|8.36|>那你會看到說這個Attention的<|10.08|><|10.08|>這個Weight是由左上到右下移動的<|14.48|><|14.48|>那跟你想像Attention應該運作的機制很像<|17.44|><|17.44|>因為當我們這邊每次產生一個詞彙的時候<|19.76|><|19.76|>我們想要專注<|20.76|><|20.76|>我們想要考慮的聲音訊號<|22.36|><|22.36|>應該就是由左向右<|24.16|><|24.16|>所以確實如果你看Model的Attention的話<|26.80|><|26.80|>它可能是從左上<|28.28|><|endoftext|> | |
| 
	它 的 這 個 分 數 高 的 地 方 可 能 也 是 從 左 上 一 直 排 到 右 下 好 那 講 到 這 邊 也 許 有 同 學 會 問 說 那 這 個 encoder 有 很 多 層 啊 decoder 也 有 很 多 層 啊 從 剛 才 的 講 解 裡 面 好 像 聽 起 來 這 個 decoder 不 管 哪 一 層 都 是 拿 encoder 的 最 後 一 層 的 輸 出 這 樣 對 嗎 對 在 原 始 paper 裡 面 的 實 做 是 這 樣 子 那 一 定 要 這 樣 嗎 不 一 定 要 這 樣 | 
	ML2021_ASR_ST-61 | 
	[
  50361,
  50364,
  8623,
  29510,
  22060,
  8204,
  119,
  19202,
  33299,
  8244,
  54,
  50481,
  50481,
  10213,
  40012,
  6240,
  50546,
  50546,
  38151,
  317,
  3581,
  6287,
  30146,
  33299,
  8244,
  44306,
  50654,
  50654,
  10213,
  38151,
  317,
  3581,
  6287,
  30146,
  33299,
  8244,
  45,
  50782,
  50782,
  4184,
  2166,
  6236,
  18032,
  4622,
  6287,
  38151,
  1251,
  1546,
  50868,
  50868,
  6287,
  4360,
  397,
  1541,
  23786,
  21975,
  5708,
  4511,
  22060,
  4438,
  8204,
  119,
  12572,
  1546,
  51088,
  51088,
  4184,
  24131,
  7093,
  12760,
  38151,
  1251,
  26087,
  32772,
  11914,
  1546,
  17543,
  25491,
  4563,
  12760,
  51236,
  51236,
  11471,
  13118,
  5884,
  22821,
  23664,
  9487,
  33299,
  8244,
  8990,
  6716,
  252,
  7391,
  247,
  20643,
  51352,
  51352,
  5884,
  7093,
  4275,
  46072,
  26432,
  51402,
  51402,
  5884,
  7093,
  4275,
  26504,
  12358,
  106,
  1546,
  29454,
  18034,
  5396,
  232,
  18616,
  51482,
  51482,
  26087,
  5620,
  23786,
  21975,
  24282,
  22060,
  51572,
  51572,
  7239,
  24293,
  10376,
  13119,
  16529,
  44,
  41147,
  1546,
  38151,
  1251,
  21358,
  51704,
  51704,
  11284,
  16657,
  1541,
  21068,
  21975,
  5708,
  51778
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>它的這個分數高的地方可能是從左上一直排到右下<|4.60|><|4.60|>講到這邊也許有同學會問說<|7.00|><|7.00|>那這個Encoder有很多層啊<|9.64|><|9.64|>Decoder也有很多層啊<|11.64|><|11.64|>從剛才的講解裡面好像聽起來<|14.32|><|14.32|>這個Decoder不管哪一層都是拿Encoder最後一層的輸出<|20.40|><|20.40|>這樣對嗎?<|21.40|><|21.40|>對<|22.08|><|22.08|>在原始paper裡面的實作是這樣子的<|24.88|><|24.88|>那一定要這樣嗎?<|26.28|><|26.28|>不一定要這樣<|28.28|><|endoftext|> | |
| 
	你 永 遠 可 以 自 己 兜 一 些 新 的 想 法 所 以 我 這 邊 就 是 引 用 一 篇 論 文 告 訴 你 說 也 有 人 嘗 試 不 同 的 cross attension 的 方 式 encoder 這 邊 有 很 多 層 decoder 這 邊 有 很 多 層 為 什 麼 decoder 這 邊 每 一 層 都 一 定 要 看 encoder 的 最 後 一 層 輸 出 呢 能 不 能 夠 有 各 式 各 樣 不 同 的 連 接 方 式 這 完 全 可 以 當 做 一 個 研 究 的 問 題 來 study 好 那 最 後 呢 我 們 就 要 講 訓 練 這 件 事 了 我 們 已 經 講 了 encoder 講 了 decoder | 
	ML2021_ASR_ST-62 | 
	[
  50361,
  50364,
  45224,
  6287,
  6627,
  30622,
  12979,
  1546,
  30146,
  16657,
  1541,
  21068,
  21975,
  5708,
  34448,
  44647,
  4511,
  22060,
  4438,
  50594,
  50594,
  11932,
  4511,
  22821,
  6404,
  40914,
  2412,
  13089,
  21372,
  6236,
  11361,
  4622,
  50714,
  50714,
  4184,
  6287,
  16257,
  66,
  19866,
  2412,
  20778,
  9636,
  97,
  4905,
  50846,
  50846,
  35,
  3045,
  19866,
  6404,
  2412,
  20778,
  9636,
  97,
  4905,
  50946,
  50946,
  21068,
  16940,
  18888,
  1546,
  11932,
  17278,
  32399,
  33242,
  21524,
  21670,
  51080,
  51080,
  6287,
  35,
  3045,
  19866,
  45376,
  17028,
  2257,
  9636,
  97,
  22796,
  24351,
  16257,
  66,
  19866,
  20578,
  2257,
  9636,
  97,
  1546,
  12290,
  116,
  7781,
  51384,
  51384,
  8377,
  2855,
  7434,
  30,
  51434,
  51434,
  2855,
  51468,
  51468,
  3581,
  19683,
  15476,
  22104,
  32399,
  1546,
  10376,
  11914,
  1541,
  24842,
  1546,
  51608,
  51608,
  4184,
  48161,
  8377,
  7434,
  30,
  51678,
  51678,
  1960,
  48161,
  8377,
  51778
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>你永遠可以自己兜一些新的想法<|3.00|><|3.00|>所以我這邊就是引用一篇論文告訴你說<|5.60|><|5.60|>也有人嘗試不同的cross-attention的方式<|10.32|><|10.32|>Encoder這邊有很多層,Decoder這邊有很多層<|13.04|><|13.04|>為什麼Decoder這邊每一層都一定要看Encoder最後一層的輸出呢?<|16.76|><|16.76|>能不能夠有各式各樣不同的連接方式<|20.12|><|20.12|>這完全可以當作一個研究的問題來study<|23.60|><|23.60|>好,那最後呢,我們就要講訓練這件事了<|27.04|><|27.04|>我們已經講了Encoder、講了Decoder<|29.04|><|endoftext|> | |
| 
	講 了 encoder decoder 怎 麼 互 動 的 我 們 已 經 你 已 經 清 楚 說 input 一 個 sequence 是 怎 麼 得 到 最 終 的 輸 出 那 接 下 來 就 進 入 訓 練 的 部 分 我 們 剛 才 都 還 沒 有 講 訓 練 的 部 分 喔 我 們 剛 才 講 的 都 還 只 是 假 設 你 模 型 訓 練 好 以 後 它 是 怎 麼 運 作 的 它 是 怎 麼 做 testing 的 它 是 怎 麼 做 influence 的 influence 就 testing 啦 所 以 當 我 說 inference 的 時 候 我 指 的 就 是 testing 我 指 的 是 同 一 件 事 情 那 是 怎 麼 做 訓 練 的 呢 | 
	ML2021_ASR_ST-63 | 
	[
  50361,
  50364,
  2166,
  42503,
  34489,
  6723,
  17645,
  2347,
  250,
  38515,
  12560,
  1546,
  7093,
  11148,
  50514,
  50514,
  7239,
  1654,
  22821,
  5620,
  41301,
  9254,
  2257,
  20878,
  229,
  29340,
  17174,
  31080,
  42920,
  50644,
  50644,
  6404,
  45820,
  10756,
  245,
  22099,
  47123,
  1546,
  35418,
  12,
  1591,
  1251,
  1546,
  9249,
  27584,
  50880,
  50880,
  16257,
  66,
  19866,
  22821,
  2412,
  20778,
  9636,
  97,
  11,
  35,
  3045,
  19866,
  22821,
  2412,
  20778,
  9636,
  97,
  51016,
  51016,
  18987,
  35,
  3045,
  19866,
  22821,
  23664,
  2257,
  9636,
  97,
  7182,
  48161,
  4200,
  16257,
  66,
  19866,
  20578,
  2257,
  9636,
  97,
  1546,
  12290,
  116,
  7781,
  6240,
  30,
  51202,
  51202,
  8225,
  28590,
  31649,
  2412,
  17516,
  27584,
  17516,
  6180,
  47123,
  1546,
  36252,
  14468,
  9249,
  27584,
  51370,
  51370,
  2664,
  37100,
  6723,
  13118,
  11914,
  8990,
  23230,
  242,
  44704,
  1546,
  17197,
  3763,
  28349,
  88,
  51544,
  51544,
  2131,
  11,
  4184,
  20578,
  6240,
  11,
  5884,
  3111,
  4275,
  11932,
  5396,
  241,
  47027,
  2664,
  20485,
  6973,
  2289,
  51716,
  51716,
  5884,
  25338,
  11932,
  2289,
  16257,
  66,
  19866,
  1231,
  11932,
  2289,
  35,
  3045,
  19866,
  51816
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>講了Encoder、Decoder怎麼互動的<|1.74|><|1.74|>我們已經清楚說<|3.58|><|3.58|>Inbringer Sequence是怎麼得到最終的輸出<|6.84|><|6.84|>那接下來就進入訓練的部分<|9.74|><|9.74|>我們剛才都還沒有講訓練的部分喔<|11.88|><|11.88|>我們剛才講的都還只是<|14.18|><|14.18|>假設你模型訓練好以後<|16.28|><|16.28|>它是怎麼運作的<|17.78|><|17.78|>它是怎麼做Testing的<|19.48|><|19.48|>它是怎麼做Inference的<|21.38|><|21.38|>Inference就Testing啦<|22.48|><|22.48|>所以當我說Inference的時候<|24.04|><|24.04|>我指的就是Testing<|25.24|><|25.24|>我指的是同一件事情<|27.04|><|27.04|>那是怎麼做訓練的呢<|29.04|><|endoftext|> | |
| 
	接 下 來 就 要 講 怎 麼 做 訓 練 那 如 果 是 做 語 音 辨 識 那 你 要 有 訓 練 資 料 需 要 什 麼 樣 訓 練 資 料 呢 你 要 蒐 集 一 大 堆 的 聲 音 訊 號 每 一 句 聲 音 訊 號 都 要 有 工 讀 生 來 聽 打 一 下 打 出 說 它 的 這 個 對 應 的 詞 彙 是 什 麼 工 讀 生 聽 這 段 是 機 器 學 習 他 就 把 機 器 學 習 四 個 字 打 出 來 所 以 就 知 道 說 你 的 這 個 transformer 應 該 要 學 到 聽 到 這 段 聲 音 訊 號 它 的 輸 出 就 是 機 器 學 習 這 四 個 中 文 字 | 
	ML2021_ASR_ST-64 | 
	[
  50361,
  50364,
  11932,
  2289,
  16257,
  66,
  19866,
  1231,
  35,
  3045,
  19866,
  11614,
  1369,
  240,
  12572,
  1546,
  50451,
  50451,
  5884,
  25338,
  38433,
  4622,
  50543,
  50543,
  4575,
  1443,
  6911,
  46859,
  655,
  1541,
  11614,
  5916,
  4511,
  8661,
  29371,
  1546,
  12290,
  116,
  7781,
  50706,
  50706,
  4184,
  40012,
  3111,
  18214,
  14028,
  5396,
  241,
  47027,
  1546,
  32174,
  50851,
  50851,
  5884,
  16940,
  18888,
  7182,
  7824,
  6963,
  11932,
  5396,
  241,
  47027,
  1546,
  32174,
  10642,
  50958,
  50958,
  5884,
  16940,
  18888,
  11932,
  1546,
  7182,
  7824,
  36859,
  51073,
  51073,
  31706,
  39035,
  2166,
  41908,
  39823,
  5396,
  241,
  47027,
  2131,
  3588,
  5661,
  51178,
  51178,
  11284,
  1541,
  11614,
  32772,
  11914,
  1546,
  51253,
  51253,
  11284,
  1541,
  11614,
  10907,
  51,
  8714,
  1546,
  51338,
  51338,
  11284,
  1541,
  11614,
  10907,
  4575,
  5158,
  1546,
  51433,
  51433,
  4575,
  5158,
  3111,
  51,
  8714,
  9724,
  51488,
  51488,
  7239,
  13118,
  34206,
  4575,
  5158,
  20643,
  51566,
  51566,
  1654,
  25922,
  1546,
  5620,
  51,
  8714,
  51626,
  51626,
  1654,
  25922,
  24620,
  13089,
  2257,
  49459,
  51716,
  51716,
  4184,
  1541,
  11614,
  10907,
  5396,
  241,
  47027,
  1546,
  6240,
  51816
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>接下來就要講怎麼做訓練<|2.00|><|2.00|>那如果是做語音辨識<|3.50|><|3.50|>那你要有訓練資料<|4.74|><|4.74|>需要什麼樣的訓練資料呢<|6.24|><|6.24|>你要收集一大堆的聲音訊號<|8.14|><|8.20|>每句聲音訊號都要有工讀生來聽打一下<|11.80|><|11.80|>打出說他的這個對應的詞彙是什麼<|14.94|><|14.94|>工讀生聽這段是機器學習<|17.24|><|17.24|>他就把機器學習四個字打出來<|19.24|><|19.30|>所以就知道說<|20.24|><|20.40|>呃你的這個transformer<|22.20|><|22.20|>應該要學到聽到這段聲音訊號<|24.24|><|24.24|>他的輸出就是機器學習<|26.24|><|26.40|>這四個中文字<|27.94|><|endoftext|> | |
| 
	那 怎 麼 讓 機 器 學 到 這 件 事 呢 我 們 已 經 知 道 說 輸 入 這 段 聲 音 訊 號 第 一 個 應 該 要 輸 出 的 中 文 字 是 機 所 以 今 天 當 我 們 把 begin 丟 給 這 個 encoder 的 時 候 它 第 一 個 輸 出 應 該 要 跟 機 越 接 近 越 好 什 麼 叫 跟 機 越 接 近 越 好 呢 機 這 個 字 會 被 表 示 成 一 個 one-hot 的 vector 在 這 個 vector 裡 面 只 有 機 對 應 的 那 個 維 度 是 1 其 他 都 是 0 這 是 正 確 答 案 那 我 們 的 decoder | 
	ML2021_ASR_ST-65 | 
	[
  50361,
  50364,
  40012,
  3111,
  4275,
  11932,
  11614,
  10907,
  5396,
  241,
  47027,
  50464,
  50464,
  4184,
  13119,
  1541,
  10907,
  31348,
  18034,
  9830,
  101,
  43143,
  50539,
  50539,
  4184,
  32085,
  2412,
  5396,
  241,
  47027,
  35380,
  33404,
  50601,
  50601,
  35748,
  7598,
  6180,
  1546,
  5396,
  241,
  47027,
  35380,
  33404,
  6240,
  50676,
  50676,
  32085,
  18681,
  26020,
  2257,
  3582,
  10726,
  228,
  1546,
  29454,
  18034,
  5396,
  232,
  18616,
  50771,
  50774,
  23664,
  34592,
  29454,
  18034,
  5396,
  232,
  18616,
  7182,
  4275,
  2412,
  23323,
  7422,
  222,
  8244,
  3763,
  21524,
  12467,
  8861,
  50954,
  50954,
  12467,
  7781,
  4622,
  31309,
  6287,
  2855,
  20481,
  1546,
  6716,
  252,
  7391,
  247,
  35851,
  51111,
  51111,
  23323,
  7422,
  222,
  8244,
  21524,
  2664,
  28427,
  1541,
  17543,
  34386,
  21372,
  34025,
  51226,
  51226,
  5000,
  3111,
  16075,
  17543,
  34386,
  21372,
  34025,
  19425,
  3338,
  22381,
  12467,
  29741,
  51326,
  51329,
  7239,
  3111,
  7758,
  4622,
  51376,
  51384,
  3606,
  225,
  18961,
  6287,
  24999,
  837,
  260,
  51474,
  51474,
  26087,
  4275,
  21372,
  4511,
  21524,
  4511,
  2664,
  28427,
  29454,
  18034,
  5396,
  232,
  18616,
  51576,
  51576,
  31309,
  12290,
  116,
  7781,
  5620,
  17543,
  34386,
  21372,
  34025,
  51676,
  51684,
  2664,
  19425,
  3338,
  5975,
  17174,
  22381,
  51761
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>那怎麼讓機器學到這件事呢?<|2.30|><|2.30|>我們已經知道說輸入這段聲音訊號<|4.80|><|4.80|>第一個應該要輸出的中文字是G<|7.10|><|7.10|>所以今天當我們把begin丟給decoder的時候<|11.52|><|11.52|>它第一個輸出應該要跟G越接近越好<|16.44|><|16.44|>什麼叫做跟G越接近越好呢?<|18.92|><|18.92|>G這個字會被表示成一個one-hot vector<|23.28|><|23.28|>在這個vector裡面只有G對應的那個維度是1<|26.80|><|26.80|>其他都是0,這是正確答案<|28.80|><|28.80|><|endoftext|> | |
| 
	你 可 以 想 成 每 一 次 我 們 在 產 生 每 一 次 decoder 在 產 生 一 個 中 文 字 的 時 候 其 實 就 是 做 了 一 次 分 類 的 問 題 中 文 字 假 設 有 四 千 個 那 就 是 做 有 四 千 個 類 別 的 分 類 的 問 題 啦 好 所 以 實 際 上 訓 練 的 時 候 這 個 樣 子 我 們 已 經 知 道 輸 出 應 該 是 機 器 學 習 這 四 個 字 那 你 就 告 訴 機 器 說 你 就 告 訴 你 的 decoder 說 現 在 你 第 一 次 的 輸 出 第 二 次 的 輸 出 | 
	ML2021_ASR_ST-66 | 
	[
  50361,
  50364,
  4184,
  11614,
  21195,
  17543,
  34386,
  21372,
  4511,
  2664,
  20485,
  6973,
  6240,
  30,
  50479,
  50479,
  5884,
  25338,
  7758,
  4622,
  12290,
  116,
  14028,
  2664,
  28427,
  29454,
  18034,
  5396,
  232,
  18616,
  50604,
  50604,
  40760,
  26087,
  4275,
  12290,
  116,
  7781,
  1546,
  5975,
  17174,
  22381,
  1541,
  38,
  50719,
  50719,
  7239,
  12074,
  13118,
  5884,
  16075,
  650,
  1494,
  940,
  253,
  17798,
  42821,
  19866,
  20643,
  50940,
  50940,
  11284,
  40760,
  12290,
  116,
  7781,
  26087,
  4275,
  9678,
  38,
  25761,
  14468,
  17463,
  25761,
  2131,
  51186,
  51186,
  7598,
  19855,
  10907,
  9678,
  38,
  25761,
  14468,
  17463,
  25761,
  2131,
  6240,
  30,
  51310,
  51310,
  38,
  6287,
  22381,
  6236,
  23238,
  40053,
  11336,
  8990,
  546,
  12,
  12194,
  8062,
  51528,
  51528,
  3581,
  6287,
  303,
  1672,
  32399,
  35244,
  38,
  2855,
  20481,
  1546,
  20754,
  9261,
  255,
  13127,
  1541,
  16,
  51704,
  51704,
  9572,
  5000,
  22796,
  15,
  11,
  16600,
  15789,
  24293,
  28223,
  28899,
  51804,
  51804
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>你可以想成每一次我們在產生<|3.08|><|3.08|>每一次decoder在產生一個中文字的時候<|7.04|><|7.04|>其實就是做了一次分類的問題<|10.62|><|10.62|>中文字假設有四千個<|13.16|><|13.16|>那就是做有四千個類別的分類的問題啦<|17.62|><|17.62|>所以實際上訓練的時候這個樣子<|19.76|><|19.76|>我們已經知道輸出應該是機器學習這四個字<|24.10|><|24.10|>那你就告訴機器說<|25.44|><|25.44|>你就告訴你的decoder說<|27.10|><|27.10|>現在你第一次的輸出<|28.70|><|28.70|>第二次的輸出<|29.44|><|endoftext|> | |
| 
	第 三 次 的 輸 出 第 四 次 輸 出 應 該 分 別 就 是 機 器 學 跟 習 這 四 個 中 文 字 的 one-hot vector 我 們 希 望 我 們 的 輸 出 跟 這 四 個 字 的 one-hot vector 越 接 近 越 好 在 訓 練 的 時 候 每 一 個 輸 出 都 會 有 一 個 cross entropy 每 一 個 輸 出 跟 one-hot vector 跟 它 對 應 的 正 確 答 案 都 有 一 個 cross entropy 都 有 一 個 cross entropy 我 們 要 希 望 所 有 的 cross entropy 的 總 和 最 小 越 小 越 好 | 
	ML2021_ASR_ST-67 | 
	[
  50361,
  50364,
  42766,
  7093,
  11336,
  23664,
  27505,
  5884,
  3581,
  33299,
  8244,
  50518,
  50518,
  23664,
  27505,
  42821,
  19866,
  3581,
  33299,
  8244,
  8990,
  5975,
  17174,
  22381,
  20643,
  50716,
  50716,
  14139,
  5620,
  10907,
  2289,
  27505,
  6627,
  40092,
  1546,
  17197,
  50895,
  50895,
  5975,
  17174,
  22381,
  31706,
  39035,
  2412,
  19425,
  20787,
  3338,
  51022,
  51022,
  4184,
  5620,
  10907,
  2412,
  19425,
  20787,
  3338,
  40092,
  16158,
  1546,
  6627,
  40092,
  1546,
  17197,
  9724,
  51245,
  51245,
  7239,
  10376,
  34837,
  5708,
  5396,
  241,
  47027,
  20643,
  6287,
  6180,
  7626,
  51352,
  51352,
  5884,
  25338,
  7758,
  12290,
  116,
  7781,
  26087,
  1541,
  17543,
  34386,
  21372,
  34025,
  2664,
  19425,
  3338,
  22381,
  51569,
  51569,
  4184,
  41045,
  31080,
  17543,
  34386,
  4622,
  51636,
  51636,
  41045,
  31080,
  18961,
  42821,
  19866,
  4622,
  51719,
  51719,
  12648,
  2166,
  18049,
  9487,
  1546,
  12290,
  116,
  7781,
  51799,
  51799,
  19693,
  9487,
  1546,
  12290,
  116,
  7781,
  51836
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>第三次的輸出 第四次的輸出<|2.00|><|2.00|>應該分別就是機 氣 學跟洗<|5.32|><|5.32|>這四個中文字的one-half vector<|7.80|><|7.80|>我們希望我們的輸出<|9.60|><|9.60|>跟這四個字的one-half vector越接近越好<|12.40|><|12.40|>在訓練的時候<|13.80|><|13.80|>每一個輸出都會有一個cross entropy<|16.60|><|16.60|>每一個輸出跟one-half vector<|18.20|><|18.20|>跟它對應的正確答案<|19.80|><|19.80|>都有一個cross entropy<|23.40|><|23.40|>我們要希望所有的cross entropy的總和最小<|27.40|><|27.40|>越小越好<|28.40|><|endoftext|> | |
| 
	所 以 這 邊 做 了 四 次 分 類 的 問 題 我 們 希 望 這 些 分 類 的 問 題 它 總 合 起 來 的 cross entropy 越 小 越 好 那 這 邊 不 要 忘 了 還 有 斷 這 個 東 西 還 有 end 這 個 東 西 所 以 其 實 今 天 假 設 這 個 句 子 它 的 中 文 的 字 是 四 個 但 是 你 學 習 的 時 候 你 要 decoder 輸 出 的 不 是 只 有 這 四 個 中 文 字 你 還 要 叫 它 記 得 說 這 四 個 中 文 字 輸 出 完 以 後 | 
	ML2021_ASR_ST-68 | 
	[
  50361,
  50364,
  35878,
  9487,
  1546,
  12290,
  116,
  7781,
  220,
  7536,
  19425,
  9487,
  1546,
  12290,
  116,
  7781,
  50464,
  50464,
  26087,
  6627,
  16158,
  5620,
  17543,
  220,
  24090,
  220,
  21372,
  9678,
  43252,
  50630,
  50630,
  2664,
  19425,
  3338,
  5975,
  17174,
  22381,
  1546,
  546,
  12,
  25461,
  8062,
  50754,
  50754,
  5884,
  29955,
  33641,
  12290,
  116,
  7781,
  50844,
  50844,
  9678,
  2664,
  19425,
  3338,
  22381,
  1546,
  546,
  12,
  25461,
  8062,
  25761,
  14468,
  17463,
  25761,
  2131,
  50984,
  50984,
  3581,
  5396,
  241,
  47027,
  20643,
  51054,
  51054,
  23664,
  8990,
  12290,
  116,
  7781,
  7182,
  6236,
  2412,
  8990,
  35418,
  30867,
  51194,
  51194,
  23664,
  8990,
  12290,
  116,
  7781,
  9678,
  546,
  12,
  25461,
  8062,
  51274,
  51274,
  9678,
  11284,
  2855,
  20481,
  1546,
  15789,
  24293,
  28223,
  28899,
  51354,
  51354,
  48121,
  8990,
  35418,
  30867,
  51534,
  51534,
  5884,
  4275,
  29955,
  39300,
  1546,
  35418,
  30867,
  1546,
  26575,
  12565,
  8661,
  7322,
  51734,
  51734,
  25761,
  7322,
  25761,
  2131,
  51784
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>所以這邊做了四次分類的問題<|3.00|><|3.00|>我們希望這些分類的問題<|5.44|><|5.44|>它總合起來的 cross entropy 越小越好<|8.84|><|8.84|>但這邊不要忘了<|10.28|><|10.28|>還有段這個東西<|12.48|><|12.48|>還有 end 這個東西<|14.58|><|14.58|>所以其實今天假設這個句子<|17.62|><|17.62|>它的中文的字是四個<|19.72|><|19.72|>但是你學習的時候<|21.22|><|21.22|>你要 decoder 輸出的<|23.32|><|23.32|>不是只有這四個中文字<|25.26|><|25.26|>你還要叫它記得說<|26.82|><|26.82|>這四個中文字輸出完以後<|29.96|><|29.96|><|endoftext|> | |
| 
	你 還 要 記 得 輸 出 斷 這 個 特 別 的 符 號 所 以 你 要 告 訴 你 的 decoder 說 你 最 終 第 五 個 位 置 輸 出 了 這 個 向 量 應 該 跟 斷 的 one-hot vector 它 的 cross entropy 越 小 越 好 那 這 個 就 是 decoder 的 訓 練 你 把 ground truth 給 它 正 確 答 案 給 它 希 望 decoder 的 輸 出 跟 正 確 答 案 越 接 近 越 好 那 這 邊 有 一 件 值 得 我 們 注 意 的 事 情 這 件 事 是 這 樣 | 
	ML2021_ASR_ST-69 | null | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>你還要記得輸出斷這個特別的符號<|3.64|><|3.64|>所以你要告訴你的Decoder說<|5.40|><|5.40|>你最終第五個位置輸出的這個向量<|8.60|><|8.60|>應該跟斷的One-Hard Vector<|12.60|><|12.60|>它的Cross Entropy越小越好<|15.64|><|15.64|>這個就是Decoder的訓練<|18.00|><|18.00|>你把One-Truth給它 正確答案給它<|20.88|><|20.88|>希望Decoder的輸出跟正確答案越接近越好<|25.44|><|25.44|>那這邊有一件值得我們注意的事情<|27.80|><|27.80|>這件事是這樣<|28.60|><|endoftext|> | |
| 
	你 看 看 decoder 的 輸 入 是 什 麼 decoder 的 輸 入 是 正 確 答 案 我 們 會 給 decoder 在 訓 練 的 時 候 我 們 會 給 decoder 看 正 確 答 案 也 就 是 我 們 會 告 訴 它 說 在 已 經 有 begin 在 有 機 的 情 況 下 你 就 要 輸 出 器 有 begin 有 機 有 器 的 情 況 下 輸 出 學 有 begin 有 機 有 器 有 學 的 情 況 下 輸 出 習 有 begin 有 機 有 器 有 學 有 習 的 情 況 下 你 就 要 輸 出 斷 | 
	ML2021_ASR_ST-70 | 
	[
  50361,
  50364,
  2166,
  7824,
  4275,
  30872,
  12290,
  116,
  7781,
  4307,
  115,
  6287,
  38446,
  1546,
  5437,
  99,
  18616,
  50546,
  50546,
  7239,
  32085,
  31080,
  18961,
  35,
  3045,
  19866,
  4622,
  50634,
  50634,
  2166,
  8661,
  29371,
  7536,
  21001,
  3338,
  11160,
  34719,
  12290,
  116,
  7781,
  1546,
  6287,
  24282,
  26748,
  50794,
  50794,
  26087,
  9678,
  4307,
  115,
  1546,
  15426,
  12,
  39,
  515,
  691,
  20814,
  50994,
  50994,
  45224,
  34,
  1887,
  3951,
  27514,
  25761,
  7322,
  25761,
  2131,
  51146,
  51146,
  6287,
  5620,
  35,
  3045,
  19866,
  1546,
  5396,
  241,
  47027,
  51264,
  51264,
  2166,
  16075,
  15426,
  12,
  14252,
  2910,
  17798,
  11284,
  220,
  15789,
  24293,
  28223,
  28899,
  17798,
  11284,
  51408,
  51408,
  29955,
  35,
  3045,
  19866,
  1546,
  12290,
  116,
  7781,
  9678,
  15789,
  24293,
  28223,
  28899,
  25761,
  14468,
  17463,
  25761,
  2131,
  51636,
  51636,
  4184,
  22821,
  32241,
  20485,
  40242,
  5916,
  5884,
  40794,
  1546,
  24675,
  51754,
  51754,
  2664,
  20485,
  6973,
  49603,
  51794
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>看看decoder的輸入是什麼<|2.70|><|2.70|>decoder的輸入是正確答案<|7.40|><|7.40|>我們會給decoder<|9.16|><|9.16|>在訓練的時候<|10.40|><|10.40|>我們會給decoder看正確答案<|13.60|><|13.60|>也就是我們會告訴他說<|15.26|><|15.26|>在已經有begin有g的情況下<|17.84|><|17.84|>你就要輸出g<|19.26|><|19.26|>有begin有g有g的情況下輸出g<|22.10|><|22.10|>有begin有g有g有g有g的情況下輸出g<|24.86|><|24.86|>有begin有g有g有g有g有g的情況下<|28.00|><|28.00|>你就要輸出g<|29.96|><|29.96|><|endoftext|> | |
| 
	在 decoder 訓 練 的 時 候 我 們 會 在 輸 入 的 時 候 給 它 正 確 的 答 案 那 這 件 事 情 叫 做 teacher forcing 那 我 也 不 其 實 我 不 太 確 定 為 什 麼 叫 teacher forcing 好 像 是 老 師 會 強 迫 你 做 什 麼 事 情 一 樣 聽 起 來 好 像 沒 有 很 好 但 是 這 個 技 術 呢 就 叫 做 teacher forcing 也 就 是 我 們 把 正 確 的 答 案 當 作 decoder 的 輸 入 那 這 個 時 候 你 馬 上 就 會 有 一 個 問 題 了 這 個 訓 練 的 時 候 | 
	ML2021_ASR_ST-71 | 
	[
  50361,
  50364,
  22884,
  42821,
  19866,
  1546,
  12290,
  116,
  14028,
  35851,
  50499,
  50499,
  42821,
  19866,
  1546,
  12290,
  116,
  14028,
  1541,
  15789,
  24293,
  28223,
  28899,
  50734,
  50734,
  5884,
  6236,
  17798,
  42821,
  19866,
  50822,
  50822,
  3581,
  5396,
  241,
  47027,
  20643,
  50884,
  50884,
  5884,
  6236,
  17798,
  42821,
  19866,
  4200,
  15789,
  24293,
  28223,
  28899,
  51044,
  51044,
  6404,
  5620,
  5884,
  6236,
  31080,
  31592,
  51127,
  51127,
  3581,
  25338,
  2412,
  650,
  1494,
  2412,
  70,
  1546,
  39391,
  4438,
  51256,
  51256,
  41045,
  4275,
  12290,
  116,
  7781,
  70,
  51327,
  51327,
  2412,
  650,
  1494,
  2412,
  70,
  2412,
  70,
  1546,
  39391,
  4438,
  12290,
  116,
  7781,
  70,
  51469,
  51469,
  2412,
  650,
  1494,
  2412,
  70,
  2412,
  70,
  2412,
  70,
  2412,
  70,
  1546,
  39391,
  4438,
  12290,
  116,
  7781,
  70,
  51607,
  51607,
  2412,
  650,
  1494,
  2412,
  70,
  2412,
  70,
  2412,
  70,
  2412,
  70,
  2412,
  70,
  1546,
  39391,
  4438,
  51764,
  51764,
  41045,
  4275,
  12290,
  116,
  7781,
  70,
  51862,
  51862
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>在decoder訓練的時候,我們會在輸入的時候給他正確的答案<|7.50|><|7.50|>那這件事情呢,叫做teacher forcing<|11.00|><|11.00|>其實我不太確定為什麼叫teacher forcing<|13.50|><|13.50|>好像是老師會強迫你做什麼事情一樣<|16.00|><|16.00|>聽起來好像沒有很好,但是這個技術呢就叫做teacher forcing<|20.50|><|20.50|>也就是我們把正確的答案當作decoder的輸入<|25.50|><|25.50|>那這個時候你馬上就會有一個問題了<|27.50|><|27.50|><|endoftext|> | |
| 
	decoder 有 偷 看 到 正 確 答 案 了 但 是 測 試 的 時 候 顯 然 沒 有 正 確 答 案 可 以 給 decoder 看 剛 才 也 有 強 調 說 在 真 正 使 用 這 個 模 型 在 inference 的 時 候 decoder 看 到 的 是 自 己 的 輸 入 這 中 間 顯 然 有 一 個 mismatch 對 這 中 間 有 一 個 mismatch 那 等 一 下 我 們 會 有 一 頁 投 影 片 的 說 明 有 什 麼 樣 可 能 的 解 決 方 式 那 接 下 來 呢 就 是 要 講 訓 練 transformer 的 一 些 訓 練 這 種 但 不 侷 限 於 transformer 啊 | 
	ML2021_ASR_ST-72 | 
	[
  50361,
  50364,
  3581,
  42821,
  19866,
  5396,
  241,
  47027,
  20643,
  11,
  5884,
  6236,
  3581,
  12290,
  116,
  14028,
  20643,
  17798,
  5000,
  15789,
  24293,
  1546,
  28223,
  28899,
  50739,
  50739,
  4184,
  2664,
  49459,
  6240,
  11,
  19855,
  10907,
  975,
  4062,
  19030,
  50914,
  50914,
  14139,
  25395,
  9455,
  24293,
  12088,
  18987,
  19855,
  975,
  4062,
  19030,
  51039,
  51039,
  33242,
  1541,
  23907,
  6236,
  22752,
  3316,
  104,
  2166,
  10907,
  7598,
  24675,
  22977,
  51164,
  51164,
  21524,
  21670,
  33242,
  6963,
  23801,
  11,
  11189,
  6287,
  32502,
  9890,
  241,
  6240,
  3111,
  19855,
  10907,
  975,
  4062,
  19030,
  51389,
  51389,
  6404,
  5620,
  5884,
  16075,
  15789,
  24293,
  1546,
  28223,
  28899,
  13118,
  11914,
  42821,
  19866,
  1546,
  12290,
  116,
  14028,
  51639,
  51639,
  4184,
  6287,
  14010,
  2166,
  29098,
  5708,
  47778,
  2412,
  8990,
  17197,
  2289,
  51739,
  51739
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>Decoder有偷看到正確答案了<|2.58|><|2.58|>但是測試的時候顯然沒有正確答案可以給Decoder看<|6.38|><|6.38|>剛才也有強調說在真正使用這個模型<|9.18|><|9.18|>在Inference的時候,Decoder看到的是自己的輸入<|12.18|><|12.18|>這中間顯然有一個Mismatch<|15.38|><|15.38|>對,這中間有一個Mismatch<|18.58|><|18.58|>等一下我們會有一頁投影片說明<|21.14|><|21.14|>有什麼樣可能的解決方式<|23.34|><|23.34|>接下來就是要講訓練Transformer的一些<|27.58|><|27.58|><|endoftext|> | |
| 
	訓 練 這 種 sequence to sequence model 的 一 些 tips 好 第 一 個 tips 是 copy mechanism 對 很 多 任 務 而 言 在 我 們 剛 才 的 討 論 裡 面 我 們 都 要 求 decoder 自 己 產 生 輸 出 但 是 對 很 多 任 務 而 言 也 許 decoder 沒 有 必 要 自 己 創 造 輸 出 出 來 它 需 要 做 的 事 情 也 許 是 從 輸 入 的 東 西 裡 面 複 製 一 些 東 西 出 來 | 
	ML2021_ASR_ST-73 | 
	[
  50361,
  50364,
  35,
  3045,
  19866,
  2412,
  7437,
  115,
  18032,
  15789,
  24293,
  28223,
  28899,
  2289,
  50493,
  50493,
  11189,
  9592,
  105,
  22099,
  20643,
  46605,
  5823,
  6963,
  15789,
  24293,
  28223,
  28899,
  6723,
  17798,
  35,
  3045,
  19866,
  4200,
  50683,
  50683,
  16940,
  18888,
  6404,
  2412,
  22752,
  32943,
  4622,
  3581,
  6303,
  15789,
  22982,
  9254,
  6287,
  41908,
  39823,
  50823,
  50823,
  3581,
  4575,
  5158,
  20643,
  11,
  35,
  3045,
  19866,
  18032,
  24620,
  17645,
  1546,
  12290,
  116,
  14028,
  50973,
  50973,
  2664,
  5975,
  11016,
  46605,
  5823,
  2412,
  8990,
  44,
  1434,
  852,
  51133,
  51133,
  2855,
  11,
  2664,
  5975,
  11016,
  2412,
  8990,
  44,
  1434,
  852,
  51293,
  51293,
  24554,
  5884,
  6236,
  32241,
  8313,
  223,
  37094,
  25373,
  4622,
  11100,
  51421,
  51421,
  2412,
  7598,
  6180,
  16657,
  1546,
  17278,
  33540,
  9249,
  27584,
  51531,
  51531,
  40012,
  5620,
  4275,
  11932,
  5396,
  241,
  47027,
  33339,
  837,
  260,
  1546,
  38515,
  51743,
  51743
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>去練這種sequence to sequence model的一些tips<|4.90|><|4.90|>第一個tips是copy mechanism<|8.30|><|8.30|>對很多任務而言<|10.00|><|10.00|>在我們剛才的討論裡面<|12.00|><|12.00|>我們都要求decoder自己產生輸出<|16.26|><|16.26|>但是對很多任務而言<|17.96|><|17.96|>也許decoder沒有必要自己創造輸出出來<|21.46|><|21.46|>他需要做的事情<|22.80|><|22.80|>也許是從輸入的東西裡面<|25.90|><|25.90|>複製一些東西出來<|27.70|><|endoftext|> | |
| 
	那 我 們 有 沒 有 辦 法 讓 decoder 複 製 從 輸 入 複 製 一 些 東 西 出 來 呢 其 實 是 有 辦 法 那 像 這 種 複 製 的 行 為 在 哪 些 任 務 會 用 得 上 呢 一 個 例 子 是 做 聊 天 機 器 人 舉 例 來 說 人 對 機 器 說 你 好 我 是 庫 洛 洛 庫 洛 洛 就 是 團 長 啦 他 是 誰 其 實 也 沒 那 麼 重 要 也 很 久 沒 有 見 到 他 了 我 是 庫 洛 洛 然 後 機 器 應 該 回 什 麼 呢 機 器 應 該 回 答 說 庫 洛 洛 你 好 很 高 興 認 識 你 那 對 機 器 來 說 | 
	ML2021_ASR_ST-74 | 
	[
  50361,
  50364,
  6734,
  47027,
  33005,
  11834,
  655,
  281,
  8310,
  2316,
  1546,
  38515,
  83,
  2600,
  50609,
  50609,
  40760,
  83,
  2600,
  1541,
  13084,
  88,
  7513,
  50779,
  50779,
  2855,
  20778,
  26443,
  39517,
  11070,
  12009,
  50864,
  50864,
  3581,
  5884,
  16940,
  18888,
  1546,
  5396,
  236,
  29340,
  32399,
  50964,
  50964,
  5884,
  7182,
  4275,
  32718,
  42821,
  19866,
  17645,
  33299,
  8244,
  12290,
  116,
  7781,
  51177,
  51177,
  11189,
  2855,
  20778,
  26443,
  39517,
  11070,
  12009,
  51262,
  51262,
  6404,
  40914,
  42821,
  19866,
  6963,
  28531,
  4275,
  17645,
  5935,
  113,
  37583,
  12290,
  116,
  7781,
  29741,
  51437,
  51437,
  5000,
  35748,
  10907,
  1546,
  24675,
  51504,
  51504,
  6404,
  40914,
  1541,
  21068,
  12290,
  116,
  14028,
  1546,
  26978,
  32399,
  51659,
  51659,
  164,
  97,
  229,
  8083,
  121,
  38515,
  26978,
  29741,
  51749
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>那我們有沒有辦法讓decoder複製<|3.08|><|3.08|>從輸入複製一些東西出來呢<|5.24|><|5.24|>其實是有辦法的<|6.60|><|6.60|>那像這種複製的行為在哪些任務會用得上呢<|10.68|><|10.68|>一個例子是做聊天機器人<|13.72|><|13.72|>舉例來說,人對機器說<|15.84|><|15.84|>你好,我是庫洛洛<|17.32|><|17.32|>庫洛洛就是團長啦<|18.56|><|18.56|>他是誰其實也沒那麼重要<|19.84|><|19.84|>已經很久沒有見到他了<|21.08|><|21.08|>我是庫洛洛<|22.28|><|22.28|>那機器應該要回什麼呢<|23.76|><|23.76|>機器應該要回答說<|25.20|><|25.20|>庫洛洛你好,很高興認識你<|27.64|><|27.64|>那對機器來說<|28.84|><|endoftext|> | |
| 
	它 其 實 沒 有 必 要 創 造 庫 洛 洛 這 個 詞 彙 這 對 機 器 來 說 一 定 會 是 一 個 非 常 怪 異 的 詞 彙 所 以 它 可 能 很 難 在 訓 練 資 料 裡 面 可 能 一 次 也 沒 有 出 現 過 所 以 它 不 太 可 能 正 確 地 產 生 這 段 詞 彙 出 來 這 段 句 子 出 來 但 是 假 設 今 天 機 器 它 在 學 的 時 候 它 學 到 的 並 不 是 它 要 產 生 庫 洛 洛 這 三 個 中 文 字 它 學 到 的 是 看 到 輸 入 的 時 候 說 我 是 某 某 某 就 直 接 把 某 某 某 | 
	ML2021_ASR_ST-75 | 
	[
  50361,
  50364,
  46714,
  28350,
  40072,
  21195,
  42821,
  19866,
  164,
  97,
  229,
  8083,
  121,
  50518,
  50518,
  21068,
  12290,
  116,
  14028,
  164,
  97,
  229,
  8083,
  121,
  38515,
  26978,
  29741,
  6240,
  50626,
  50626,
  14139,
  1541,
  2412,
  40072,
  1546,
  50694,
  50694,
  4184,
  12760,
  33005,
  164,
  97,
  229,
  8083,
  121,
  1546,
  8082,
  6344,
  3581,
  17028,
  13824,
  26443,
  39517,
  6236,
  9254,
  5916,
  5708,
  6240,
  50898,
  50898,
  8990,
  17797,
  7626,
  1541,
  10907,
  40096,
  6135,
  17543,
  34386,
  4035,
  51050,
  51050,
  42828,
  17797,
  36979,
  11,
  4035,
  2855,
  17543,
  34386,
  4622,
  51156,
  51156,
  26410,
  11,
  15914,
  6346,
  104,
  12136,
  249,
  12136,
  249,
  51230,
  51230,
  6346,
  104,
  12136,
  249,
  12136,
  249,
  5620,
  37766,
  15353,
  9724,
  51292,
  51292,
  47046,
  20757,
  14139,
  6404,
  4913,
  20504,
  24928,
  51356,
  51356,
  25338,
  4563,
  25320,
  6963,
  10470,
  4511,
  5000,
  2289,
  51418,
  51418,
  15914,
  6346,
  104,
  12136,
  249,
  12136,
  249,
  51478,
  51478,
  4184,
  17543,
  34386,
  26087,
  4275,
  8350,
  7598,
  6240,
  51552,
  51552,
  17543,
  34386,
  26087,
  4275,
  8350,
  28223,
  4622,
  51624,
  51624,
  6346,
  104,
  12136,
  249,
  12136,
  249,
  26410,
  11,
  4563,
  12979,
  44089,
  22041,
  43143,
  2166,
  51746,
  51746,
  4184,
  2855,
  17543,
  34386,
  36979,
  51806
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>它其實沒有必要創造庫洛洛這個詞彙<|2.76|><|2.76|>這對機器來說一定會是一個非常怪異的詞彙<|5.72|><|5.72|>所以它可能很難<|7.40|><|7.40|>在訓練資料裡面可能一次也沒有出現過<|9.96|><|9.96|>所以它不太可能正確的產生這段詞彙出來<|13.32|><|13.32|>這段句子出來<|14.64|><|14.64|>但是假設今天機器它在學的時候<|17.44|><|17.44|>它學到的並不是它要產生庫洛洛這三個中文字<|22.56|><|22.56|>它學到的是看到輸入的時候說我是某某某<|27.16|><|27.16|>就直接把某某某<|28.40|><|endoftext|> | |
| 
	不 管 這 邊 是 什 麼 複 製 出 來 說 某 某 某 你 好 那 這 樣 子 機 器 的 訓 練 顯 然 會 比 較 容 易 它 顯 然 比 較 有 可 能 得 到 正 確 的 結 果 所 以 複 製 對 於 對 話 來 說 可 能 是 一 個 需 要 的 技 術 需 要 的 能 力 我 這 邊 舉 另 外 一 個 例 子 小 傑 不 能 用 念 能 力 了 他 不 能 用 念 能 力 了 你 可 能 會 回 答 說 你 所 謂 的 不 能 用 念 能 力 是 什 麼 意 思 對 機 器 來 說 它 要 做 的 事 情 | 
	ML2021_ASR_ST-76 | 
	[
  50361,
  50364,
  11284,
  14139,
  6963,
  28531,
  4275,
  5935,
  113,
  37583,
  6346,
  104,
  12136,
  249,
  12136,
  249,
  6287,
  6716,
  252,
  7391,
  247,
  50502,
  50502,
  2664,
  2855,
  17543,
  34386,
  36979,
  24272,
  6236,
  1541,
  8990,
  14392,
  26798,
  6904,
  108,
  1546,
  6716,
  252,
  7391,
  247,
  50650,
  50650,
  7239,
  11284,
  16657,
  4563,
  21192,
  50734,
  50734,
  3581,
  5396,
  241,
  47027,
  35380,
  33404,
  32399,
  16657,
  27505,
  6404,
  6963,
  7781,
  9581,
  8816,
  50862,
  50862,
  7239,
  11284,
  1960,
  9455,
  16657,
  15789,
  24293,
  1546,
  33299,
  8244,
  2664,
  28427,
  6716,
  252,
  7391,
  247,
  29741,
  51030,
  51030,
  2664,
  28427,
  34592,
  7626,
  29741,
  51096,
  51096,
  11189,
  31706,
  39035,
  12074,
  17543,
  34386,
  11284,
  3581,
  21372,
  20643,
  51236,
  51236,
  11284,
  21372,
  4511,
  1546,
  35934,
  7296,
  11284,
  4275,
  33299,
  8244,
  6346,
  104,
  12136,
  249,
  12136,
  249,
  2664,
  10960,
  3338,
  5975,
  17174,
  22381,
  51492,
  51492,
  11284,
  21372,
  4511,
  24620,
  18032,
  12290,
  116,
  14028,
  20643,
  4622,
  15914,
  17238,
  238,
  17238,
  238,
  17238,
  238,
  51722,
  51722,
  3111,
  43297,
  16075,
  17238,
  238,
  17238,
  238,
  17238,
  238,
  51784
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>不管這邊是什麼複製出來說某某某你好<|3.00|><|3.00|>那這樣子機器的訓練顯然會比較容易<|6.80|><|6.80|>它顯然比較有可能得到正確的結果<|9.80|><|9.80|>所以複製對於對話來說<|12.40|><|12.40|>可能是一個需要的技術需要的能力<|17.40|><|17.40|>或這邊舉另外一個例子<|19.00|><|19.00|>小傑不能用唸能力了<|21.00|><|21.00|>對他不能用唸能力了<|22.60|><|22.60|>你可能會回答說<|23.60|><|23.60|>你所謂的不能用唸能力是什麼意思<|26.40|><|26.40|>對機器來說<|27.40|><|27.40|>他要做的事情<|28.60|><|endoftext|> | |
| 
	去 複 述 這 一 段 它 聽 不 懂 的 話 那 它 不 需 要 從 頭 去 創 造 這 一 段 文 字 它 要 學 的 也 許 是 從 使 用 者 人 的 輸 入 去 copy 一 些 詞 彙 當 做 它 的 輸 出 或 者 是 在 做 摘 要 的 時 候 你 可 能 更 需 要 copy 這 樣 子 的 技 能 所 謂 的 摘 要 就 是 你 要 訓 練 一 個 模 型 然 後 這 個 模 型 去 讀 一 篇 文 章 然 後 產 生 這 篇 文 章 的 摘 要 那 這 個 任 務 完 全 是 有 辦 法 做 的 你 就 是 蒐 集 大 量 的 文 章 | 
	ML2021_ASR_ST-77 | 
	[
  50361,
  50364,
  45376,
  22821,
  35851,
  164,
  97,
  229,
  8083,
  121,
  29741,
  4622,
  17238,
  238,
  17238,
  238,
  17238,
  238,
  26410,
  50514,
  50514,
  4184,
  24842,
  17543,
  34386,
  1546,
  5396,
  241,
  47027,
  46605,
  5823,
  6236,
  25174,
  49212,
  50704,
  50704,
  11284,
  46605,
  5823,
  25174,
  2412,
  16657,
  5916,
  4511,
  15789,
  24293,
  1546,
  35181,
  50854,
  50854,
  7239,
  164,
  97,
  229,
  8083,
  121,
  2855,
  19488,
  2855,
  11103,
  36979,
  50984,
  50984,
  16657,
  1541,
  8990,
  35748,
  1546,
  32502,
  9890,
  241,
  35748,
  1546,
  8225,
  13486,
  51234,
  51234,
  19780,
  22821,
  42828,
  26202,
  8990,
  17797,
  7626,
  51314,
  51314,
  7322,
  11518,
  239,
  28590,
  9254,
  17198,
  116,
  8225,
  13486,
  2289,
  51414,
  51414,
  2855,
  5000,
  28590,
  9254,
  17198,
  116,
  8225,
  13486,
  2289,
  51494,
  51494,
  2166,
  16657,
  6236,
  8350,
  28223,
  4622,
  51544,
  51544,
  2166,
  5966,
  4802,
  224,
  1546,
  28590,
  9254,
  17198,
  116,
  8225,
  13486,
  35851,
  16697,
  51684,
  51684,
  2855,
  17543,
  34386,
  36979,
  51734,
  51734,
  5000,
  4275,
  10907,
  1546,
  24675,
  51794
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>去複述這一段他聽不懂的話<|2.66|><|2.66|>那他不需要從頭去創造這一段文字<|5.66|><|5.66|>他要學的也許是從使用者人的輸入<|9.38|><|9.38|>去copy一些詞彙當作他的輸出<|13.34|><|13.34|>或者是在做摘要的時候<|15.80|><|15.80|>你可能更需要copy這樣子的技能<|18.66|><|18.66|>所謂的摘要就是你要訓練一個模型<|21.14|><|21.14|>然後這個模型去讀一篇文章<|23.50|><|23.50|>然後產生這篇文章的摘要<|25.38|><|25.38|>這個任務完全是有辦法做的<|27.90|><|27.90|>你就是收集大量的文章<|29.66|><|endoftext|> | |
| 
	那 每 一 篇 文 章 都 有 人 寫 的 摘 要 然 後 你 就 訓 練 一 個 sequence-to-sequence 的 model 就 結 束 了 你 要 做 這 樣 的 任 務 只 有 一 點 點 的 資 料 是 做 不 起 來 的 有 的 同 學 收 集 個 幾 萬 篇 文 章 然 後 訓 練 一 個 這 樣 的 sequence-to-sequence model 發 現 結 果 有 點 差 然 後 來 問 我 為 什 麼 這 時 候 我 就 告 訴 你 說 你 要 訓 練 這 種 你 要 叫 機 器 說 合 理 的 句 子 通 常 這 個 百 萬 篇 文 章 是 需 要 的 所 以 如 果 你 有 百 萬 篇 文 章 那 些 文 章 都 有 人 標 的 摘 要 | 
	ML2021_ASR_ST-78 | 
	[
  50361,
  50364,
  6734,
  164,
  97,
  229,
  3316,
  108,
  32260,
  28427,
  5000,
  21524,
  1960,
  29624,
  21358,
  50497,
  50497,
  4184,
  5000,
  1960,
  35748,
  21068,
  19921,
  6734,
  5935,
  113,
  37583,
  32260,
  28427,
  17174,
  22381,
  50647,
  50647,
  5000,
  4275,
  21372,
  1546,
  6404,
  40914,
  1541,
  21068,
  22982,
  9254,
  12444,
  4035,
  1546,
  12290,
  116,
  14028,
  50833,
  50833,
  6734,
  13084,
  88,
  38515,
  6716,
  252,
  7391,
  247,
  13118,
  11914,
  31309,
  12290,
  116,
  7781,
  51031,
  51031,
  31148,
  1541,
  3581,
  10907,
  34783,
  246,
  4275,
  20643,
  51154,
  51154,
  2166,
  16657,
  19002,
  35748,
  13084,
  88,
  24842,
  1546,
  32502,
  8225,
  51297,
  51297,
  5966,
  4802,
  224,
  1546,
  34783,
  246,
  4275,
  5620,
  32085,
  5396,
  241,
  47027,
  8990,
  41908,
  39823,
  51421,
  51421,
  10213,
  6287,
  41908,
  39823,
  6734,
  7422,
  222,
  2257,
  20878,
  229,
  17174,
  11957,
  254,
  51539,
  51539,
  10213,
  33299,
  8244,
  2664,
  20878,
  229,
  17174,
  11957,
  254,
  1546,
  34783,
  246,
  4275,
  51633,
  51633,
  6287,
  26443,
  39517,
  37100,
  1541,
  2412,
  40072,
  10907,
  1546,
  51759,
  51759,
  2166,
  5620,
  18681,
  26020,
  3582,
  26748,
  1546,
  17174,
  11957,
  254,
  51847
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>那每一篇文章呢,都有人寫的摘要<|3.44|><|3.44|>然後你就訓練一個sequence to sequence的model就結束了<|7.80|><|7.80|>那你要做這樣的任務,只有一點點的資料是做不起來的啦<|10.80|><|10.80|>有的同學蒐集個幾萬篇文章<|13.80|><|13.80|>然後訓練一個這樣的sequence to sequence的model<|16.40|><|16.40|>發現結果有點差,然後來問我為什麼<|18.40|><|18.40|>這時候我就告訴你說,你要訓練這種<|20.56|><|20.56|>你要叫機器說合理的句子啊<|22.56|><|22.56|>通常這個百萬篇文章是需要的啦<|25.32|><|25.32|>所以如果你有百萬篇文章<|27.32|><|27.32|>那些文章都有人標的摘要<|29.32|><|endoftext|> | |
| 
	那 有 時 候 你 會 把 直 接 把 文 章 標 題 當 作 摘 要 那 這 樣 就 不 需 要 花 太 多 人 力 來 標 你 是 可 以 訓 練 一 個 直 接 可 以 幫 你 讀 一 篇 文 章 就 下 一 個 標 題 做 個 摘 要 的 模 型 但 是 我 們 知 道 說 做 摘 要 的 時 候 有 時 候 很 多 的 詞 彙 你 其 實 就 是 直 接 從 原 來 的 文 章 裡 面 複 製 出 來 的 對 不 對 小 時 候 老 師 叫 我 們 寫 國 文 課 的 課 文 的 那 個 摘 要 的 時 候 其 實 你 也 沒 有 自 己 創 造 詞 彙 對 不 對 你 也 是 從 這 個 課 文 裡 面 找 一 些 句 子 出 來 | 
	ML2021_ASR_ST-79 | 
	[
  50361,
  50364,
  4184,
  23664,
  2257,
  20878,
  229,
  17174,
  11957,
  254,
  6240,
  11,
  7182,
  45820,
  4510,
  104,
  1546,
  34783,
  246,
  4275,
  50536,
  50536,
  10213,
  41045,
  5396,
  241,
  47027,
  8990,
  11834,
  655,
  281,
  8310,
  1546,
  8014,
  338,
  3111,
  17144,
  44320,
  2289,
  50754,
  50754,
  4184,
  32085,
  10907,
  39425,
  26443,
  39517,
  11,
  35244,
  19202,
  8216,
  1546,
  35380,
  33404,
  1541,
  10907,
  1960,
  21670,
  1546,
  9724,
  50904,
  50904,
  2412,
  1546,
  13089,
  21372,
  42356,
  238,
  26020,
  3338,
  23575,
  14099,
  20878,
  229,
  17174,
  11957,
  254,
  51054,
  51054,
  10213,
  5396,
  241,
  47027,
  8990,
  39425,
  11834,
  655,
  281,
  8310,
  1546,
  8014,
  338,
  51184,
  51184,
  38927,
  35181,
  42440,
  21679,
  11,
  10213,
  3763,
  11361,
  1654,
  18987,
  51284,
  51284,
  2664,
  14010,
  22020,
  31080,
  42920,
  11,
  32085,
  5396,
  241,
  47027,
  33005,
  51392,
  51392,
  32085,
  19855,
  17543,
  34386,
  4622,
  14245,
  13876,
  1546,
  34592,
  7626,
  4905,
  51492,
  51492,
  19550,
  11279,
  6287,
  31906,
  14099,
  20878,
  229,
  17174,
  11957,
  254,
  1541,
  35748,
  1546,
  9724,
  51630,
  51630,
  7239,
  13119,
  43320,
  31906,
  14099,
  20878,
  229,
  17174,
  11957,
  254,
  51730,
  51730,
  4184,
  13824,
  17174,
  11957,
  254,
  7182,
  45820,
  46299,
  1546,
  34783,
  246,
  4275,
  51830
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>那有時候你會直接把文章標題當作摘要<|2.60|><|2.60|>那這樣就不需要花太多人力來標<|4.80|><|4.80|>是可以訓練一個直接可以幫你讀一篇文章<|8.30|><|8.30|>就下一個標題做個摘要的模型<|10.80|><|10.80|>但是我們知道說做摘要的時候<|12.80|><|12.80|>有時候很多的詞彙<|14.20|><|14.20|>你其實就是直接從原來的文章裡面複製出來的<|18.00|><|18.00|>對不對<|18.60|><|18.60|>小時候老師叫我們寫國文課的課文的摘要的時候<|23.40|><|23.40|>其實你也沒有自己創造詞彙對不對<|25.60|><|25.60|>你就是從這個課文裡面找一些句子出來<|29.40|><|endoftext|> | |
| 
	然 後 把 它 改 寫 一 下 其 實 就 變 成 摘 要 了 所 以 對 摘 要 這 個 任 務 而 言 其 實 從 文 章 裡 面 直 接 複 製 一 些 資 訊 出 來 可 能 是 一 個 很 關 鍵 的 能 力 那 sequence-to-sequence model 有 沒 有 辦 法 做 到 這 件 事 呢 那 簡 單 來 說 就 是 有 那 我 們 就 不 會 細 講 最 早 有 從 輸 入 複 製 東 西 的 能 力 的 模 型 叫 做 pointer network 那 這 個 過 去 上 課 是 有 講 過 的 我 把 錄 影 放 在 這 邊 給 大 家 參 考 好 那 後 來 還 有 一 個 變 形 叫 做 copy network | 
	ML2021_ASR_ST-80 | 
	[
  50361,
  50364,
  4184,
  2412,
  14010,
  2166,
  6236,
  43297,
  16075,
  17174,
  11957,
  254,
  46299,
  14475,
  13118,
  11914,
  34783,
  246,
  4275,
  50494,
  50494,
  4184,
  8377,
  3111,
  1960,
  35748,
  20127,
  9455,
  6392,
  4035,
  13486,
  3763,
  46299,
  50604,
  50604,
  1541,
  6723,
  5396,
  241,
  47027,
  8990,
  43297,
  6723,
  32187,
  2166,
  7422,
  222,
  2257,
  20878,
  229,
  17174,
  11957,
  254,
  50779,
  50779,
  3111,
  4438,
  8990,
  46299,
  14475,
  10907,
  3338,
  34783,
  246,
  4275,
  1546,
  41908,
  39823,
  50904,
  50904,
  11189,
  5884,
  7758,
  4622,
  10907,
  34783,
  246,
  4275,
  20643,
  51004,
  51004,
  2412,
  14010,
  20778,
  1546,
  6716,
  252,
  7391,
  247,
  51074,
  51074,
  2166,
  14139,
  5620,
  43297,
  21068,
  19683,
  3763,
  1546,
  17174,
  11957,
  254,
  32399,
  164,
  97,
  229,
  8083,
  121,
  29741,
  1546,
  51264,
  51264,
  22550,
  51294,
  51294,
  7322,
  14010,
  23907,
  19855,
  5884,
  4510,
  104,
  8053,
  17174,
  3549,
  110,
  1546,
  3549,
  110,
  17174,
  1546,
  34783,
  246,
  4275,
  20643,
  51534,
  51534,
  14139,
  2166,
  6404,
  6963,
  17645,
  5935,
  113,
  37583,
  6716,
  252,
  7391,
  247,
  22550,
  51644,
  51644,
  2166,
  5620,
  21068,
  6287,
  3549,
  110,
  17174,
  32399,
  25085,
  38515,
  34592,
  7626,
  29741,
  51834
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>然後把它改寫一下,其實就變成摘要<|2.38|><|2.38|>所以對摘要這個任務而言<|4.28|><|4.28|>其實從文章裡面直接複製一些資訊出來<|7.58|><|7.58|>可能是一個很關鍵的<|9.04|><|9.04|>那Sequence to Sequence Model<|11.00|><|11.00|>有沒有辦法做到這件事呢?<|13.12|><|13.12|>簡單來說就是有,那我們就不會細講<|16.46|><|16.46|>最早有從輸入複製東西的能力的模型<|20.62|><|20.62|>叫做Point Network<|22.16|><|22.16|>這個過去上課是有講過的<|24.00|><|24.00|>我把錄影放在這邊給大家參考<|26.38|><|26.38|>那後來還有一個變形叫做Copy Network<|29.46|><|endoftext|> | |
| 
	那 你 可 以 看 一 下 這 一 篇 copy mechanism in sequence-to-sequence 有 沒 有 問 題 你 看 sequence-to-sequence model 是 怎 麼 做 到 從 輸 入 複 製 東 西 到 輸 出 來 的 好 那 其 實 這 個 sequence-to-sequence model 因 為 你 知 道 機 器 就 是 一 個 黑 盒 子 有 時 候 它 裡 面 學 到 什 麼 東 西 你 實 在 是 搞 不 清 楚 那 有 時 候 它 會 犯 非 常 低 級 的 錯 誤 什 麼 樣 低 級 的 錯 誤 呢 這 邊 就 舉 一 個 真 實 的 低 級 錯 誤 的 例 子 | 
	ML2021_ASR_ST-81 | 
	[
  50361,
  50364,
  10213,
  42061,
  34490,
  4510,
  104,
  8861,
  11,
  14139,
  3111,
  26327,
  11336,
  34783,
  246,
  4275,
  50483,
  50483,
  7239,
  2855,
  34783,
  246,
  4275,
  6287,
  26443,
  39517,
  11070,
  12009,
  50578,
  50578,
  14139,
  21068,
  17174,
  11957,
  254,
  32399,
  43297,
  164,
  97,
  229,
  8083,
  121,
  38515,
  35380,
  5396,
  232,
  29741,
  50743,
  50743,
  16657,
  1541,
  8990,
  4563,
  14899,
  41668,
  113,
  1546,
  50816,
  50816,
  4184,
  10637,
  358,
  655,
  281,
  46859,
  655,
  17105,
  50914,
  50914,
  28350,
  40072,
  10907,
  4511,
  2664,
  20485,
  6973,
  6240,
  30,
  51020,
  51020,
  31995,
  36979,
  5620,
  2412,
  11,
  46714,
  3111,
  21121,
  41588,
  11932,
  51187,
  51187,
  8661,
  21176,
  2412,
  21068,
  12290,
  116,
  14028,
  164,
  97,
  229,
  8083,
  121,
  26978,
  1546,
  8225,
  13486,
  1546,
  41908,
  39823,
  51395,
  51395,
  19855,
  10907,
  18705,
  1734,
  83,
  1902,
  51472,
  51472,
  6287,
  36910,
  5708,
  3549,
  110,
  1541,
  2412,
  11932,
  8816,
  1546,
  51564,
  51564,
  1654,
  16075,
  9567,
  226,
  16820,
  12744,
  3581,
  22821,
  17798,
  6868,
  47375,
  26504,
  51683,
  51683,
  4184,
  5661,
  3763,
  15569,
  8990,
  26327,
  30900,
  19855,
  10907,
  34,
  19680,
  12640,
  51837
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>那你可以看一下這篇<|1.40|><|1.40|>Copy Mechanism in Sequence-to-Sequence Learning<|4.92|><|4.92|>看看Sequence-to-Sequence Model<|7.08|><|7.08|>是怎麼做到從輸入複製東西到輸出來的<|11.40|><|11.40|>那其實這個Sequence-to-Sequence Model<|14.48|><|14.48|>因為你知道機器就是一個黑盒子<|16.80|><|16.80|>有時候它裡面學到什麼東西<|18.92|><|18.92|>你實在是考不清楚<|20.76|><|20.76|>有時候它會犯非常低級的錯誤<|24.32|><|24.32|>什麼樣低級的錯誤呢<|26.00|><|26.00|>這邊就舉一個真實的低級錯誤的例子<|29.24|><|endoftext|> | |
| 
	這 邊 舉 的 例 子 是 語 音 合 成 那 今 天 語 音 合 成 你 完 全 可 以 就 是 訓 練 一 個 sequence-to-sequence 的 model sequence-to-sequence model 大 家 都 很 熟 transformer 就 是 一 個 例 子 你 就 拿 出 來 然 後 輸 入 是 什 麼 你 就 蒐 集 很 多 的 聲 音 文 字 跟 聲 音 訊 號 的 對 應 關 係 蒐 集 很 多 的 文 字 跟 聲 音 訊 號 對 應 關 係 告 訴 你 的 然 後 接 下 來 告 訴 你 的 sequence-to-sequence model 說 看 到 這 段 中 文 的 句 子 你 就 輸 出 這 段 聲 音 然 後 就 沒 有 然 後 就 硬 train 一 發 就 結 束 了 | 
	ML2021_ASR_ST-82 | 
	[
  50361,
  50364,
  4184,
  42766,
  28324,
  2664,
  20878,
  229,
  50434,
  50434,
  34,
  19680,
  30175,
  1434,
  294,
  46859,
  655,
  12,
  1353,
  12,
  10637,
  358,
  655,
  15205,
  50610,
  50610,
  22884,
  10637,
  358,
  655,
  12,
  1353,
  12,
  10637,
  358,
  655,
  17105,
  50718,
  50718,
  1541,
  11614,
  10907,
  4511,
  21068,
  12290,
  116,
  14028,
  164,
  97,
  229,
  8083,
  121,
  26978,
  4511,
  12290,
  116,
  29741,
  1546,
  50934,
  50934,
  4184,
  14139,
  6287,
  10637,
  358,
  655,
  12,
  1353,
  12,
  10637,
  358,
  655,
  17105,
  51088,
  51088,
  11471,
  28945,
  17543,
  34386,
  5620,
  8990,
  32141,
  5419,
  240,
  7626,
  51204,
  51204,
  2412,
  14010,
  11284,
  32399,
  21372,
  4511,
  7598,
  26978,
  51310,
  51310,
  2166,
  10376,
  3581,
  1541,
  26504,
  1960,
  38433,
  51402,
  51402,
  2412,
  14010,
  11284,
  6236,
  35276,
  107,
  14392,
  41377,
  35315,
  1546,
  13133,
  3549,
  97,
  51580,
  51580,
  7598,
  6180,
  41377,
  35315,
  1546,
  13133,
  3549,
  97,
  6240,
  51664,
  51664,
  22821,
  3111,
  42828,
  8990,
  6303,
  10376,
  1546,
  41377,
  35315,
  13133,
  3549,
  97,
  1546,
  17797,
  7626,
  51826
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>這邊舉的例子是語音合成<|2.74|><|2.74|>那今天語音合成<|4.00|><|4.00|>你完全可以訓練一個<|6.40|><|6.40|>Sequence to Sequence的模式<|7.80|><|7.80|>Sequence to Sequence的模式大家都很熟嘛<|9.54|><|9.54|>Transformer就是一個例子<|10.64|><|10.64|>你就拿出來<|11.64|><|11.70|>然後輸入是什麼<|12.74|><|12.74|>你就收集很多的<|14.24|><|14.34|>文字跟聲音訊號的對應關係<|16.70|><|16.74|>收集很多的文字跟聲音訊號的對應關係<|19.00|><|19.00|>然後接下來告訴你的<|20.50|><|20.50|>Sequence to Sequence的模式說<|21.84|><|22.00|>看到這段中文的句子<|23.70|><|23.70|>你就輸出這段聲音<|25.34|><|25.34|>然後就沒有然後<|27.04|><|27.04|>就一拳一發就結束了<|28.90|><|endoftext|> | |
| 
	然 後 機 器 就 可 以 學 會 做 語 音 合 成 了 那 像 這 樣 的 方 法 做 出 來 結 果 怎 麼 樣 呢 其 實 還 不 錯 舉 例 來 說 我 叫 機 器 連 說 4 次 發 財 看 看 它 會 怎 麼 講 機 器 輸 出 的 結 果 是 這 樣 子 的 發 財 發 財 發 財 發 財 就 發 現 很 神 奇 我 輸 入 的 發 財 是 明 明 是 同 樣 的 詞 彙 只 是 重 複 4 次 機 器 居 然 自 己 有 一 些 抑 揚 頓 挫 你 說 它 為 什 麼 有 抑 揚 頓 挫 你 再 仔 細 聽 聽 看 發 財 發 財 發 財 發 財 | 
	ML2021_ASR_ST-83 | 
	[
  50361,
  50364,
  22821,
  42828,
  1546,
  17797,
  7626,
  1541,
  31348,
  18034,
  14245,
  11336,
  50501,
  50501,
  4184,
  12074,
  31348,
  18034,
  14245,
  11336,
  50564,
  50564,
  2166,
  37100,
  6723,
  5396,
  241,
  47027,
  8990,
  50684,
  50684,
  10637,
  358,
  655,
  281,
  46859,
  655,
  1546,
  41908,
  27584,
  50754,
  50754,
  10637,
  358,
  655,
  281,
  46859,
  655,
  1546,
  41908,
  27584,
  46525,
  4563,
  21805,
  253,
  20722,
  50841,
  50841,
  33339,
  837,
  260,
  5620,
  8990,
  17797,
  7626,
  50896,
  50896,
  41045,
  24351,
  29741,
  50946,
  50949,
  10213,
  12290,
  116,
  14028,
  35851,
  51001,
  51001,
  41045,
  18681,
  26020,
  20778,
  1546,
  51076,
  51081,
  17174,
  22381,
  9678,
  29454,
  18034,
  5396,
  232,
  18616,
  1546,
  2855,
  20481,
  25802,
  51199,
  51201,
  18681,
  26020,
  20778,
  1546,
  17174,
  22381,
  9678,
  29454,
  18034,
  5396,
  232,
  18616,
  1546,
  2855,
  20481,
  25802,
  51314,
  51314,
  10213,
  40012,
  31080,
  18961,
  51389,
  51389,
  10637,
  358,
  655,
  281,
  46859,
  655,
  1546,
  41908,
  27584,
  4622,
  51456,
  51464,
  18032,
  2664,
  28427,
  5975,
  17174,
  1546,
  34592,
  7626,
  51549,
  51549,
  41045,
  12290,
  116,
  7781,
  2664,
  28427,
  29454,
  18034,
  51631,
  51631,
  10213,
  3111,
  6963,
  10213,
  51716,
  51716,
  3111,
  2257,
  6852,
  111,
  2257,
  14637,
  3111,
  17144,
  44320,
  2289,
  51809
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>然後機器就可以學會做語音合成了<|2.92|><|2.92|>那像這樣的方法做出來的結果怎麼樣呢<|5.32|><|5.32|>其實還不錯<|6.76|><|6.76|>舉例來說呢<|7.68|><|7.68|>我叫機器連說四次發財<|10.32|><|10.32|>看看他會怎麼講<|11.52|><|11.52|>機器輸出的結果是這樣子<|13.60|><|13.60|>發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財<|endoftext|> | |
| 
	4 個 發 財 的 聲 音 不 是 一 樣 的 發 財 發 財 發 財 發 財 它 是 有 抑 揚 頓 挫 的 它 怎 麼 學 到 這 件 事 不 知 道 它 自 己 訓 練 出 來 就 是 這 個 樣 子 那 你 讓 它 講 3 次 發 財 發 財 發 財 發 財 也 沒 問 題 那 它 講 2 次 發 財 發 財 發 財 也 沒 問 題 讓 它 講 1 次 發 財 財 財 財 財 發 現 怎 麼 沒 有 唸 發 它 不 發 為 什 麼 就 是 不 知 道 為 什 麼 這 樣 子 | 
	ML2021_ASR_ST-84 | 
	[
  50361,
  50364,
  10213,
  17543,
  34386,
  36781,
  21372,
  6236,
  10907,
  31348,
  18034,
  14245,
  11336,
  2289,
  50510,
  50510,
  4184,
  12760,
  39425,
  9249,
  11148,
  10907,
  29741,
  1546,
  35181,
  34253,
  6240,
  50630,
  50630,
  14139,
  7824,
  30967,
  50702,
  50702,
  42828,
  17797,
  36979,
  6240,
  50748,
  50748,
  1654,
  19855,
  17543,
  34386,
  36252,
  4622,
  19425,
  9487,
  14637,
  11561,
  94,
  50880,
  50880,
  22884,
  5000,
  6236,
  11614,
  11932,
  50940,
  50940,
  17543,
  34386,
  12290,
  116,
  7781,
  1546,
  35181,
  1541,
  24842,
  51044,
  51044,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>四個發財的聲音不是一樣的<|2.00|><|2.00|>發財發財發財發財<|4.00|><|4.00|>他是有異樣頓挫的<|5.32|><|5.32|>他怎麼學到這件事<|6.64|><|6.64|>不知道啊<|7.28|><|7.28|>他自己訓練出來就是這個樣子<|9.12|><|9.12|>那你讓他講三次發財<|10.64|><|10.64|>發財發財發財發財發財發財<|13.24|><|13.24|>也沒問題<|14.08|><|14.08|>讓他講兩次發財<|15.52|><|15.52|>發財發財發財發財發財<|17.64|><|17.64|>也沒問題<|18.60|><|18.60|>讓他講一次發財<|20.04|><|20.04|>發財發財發財發財<|22.92|><|22.92|>發現怎麼沒有念發<|24.96|><|24.96|>他不發啊<|26.00|><|26.00|>為什麼<|26.52|><|26.52|>就是不知道為什麼這樣子<|28.52|><|endoftext|> | |
| 
	就 是 你 這 個 sequence-to-sequence model 有 時 候 train 出 來 就 是 會 產 生 莫 名 其 妙 的 結 果 也 許 在 訓 練 資 料 裡 面 這 種 非 常 短 的 句 子 很 少 所 以 機 器 它 根 本 沒 有 辦 法 處 不 知 道 要 怎 麼 處 理 這 種 非 常 短 的 句 子 你 叫 它 唸 發 財 它 把 發 省 略 掉 只 唸 財 你 居 然 叫 它 唸 4 次 的 發 財 重 複 4 次 沒 問 題 叫 它 只 唸 一 次 居 然 會 有 問 題 就 是 這 麼 的 奇 怪 當 然 其 實 這 個 例 子 並 沒 有 那 麼 常 出 現 就 這 個 用 sequence-to-sequence learn 出 來 tts | 
	ML2021_ASR_ST-85 | 
	[
  50361,
  50364,
  19425,
  3338,
  14637,
  11561,
  94,
  1546,
  29454,
  18034,
  7296,
  22977,
  1546,
  50464,
  50464,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  50564,
  50564,
  47046,
  2412,
  6904,
  108,
  6180,
  8313,
  241,
  8501,
  104,
  1546,
  50630,
  50630,
  5000,
  11614,
  21372,
  4511,
  2664,
  20485,
  6973,
  50696,
  50696,
  17572,
  4905,
  50728,
  50728,
  5000,
  17645,
  5396,
  241,
  47027,
  29741,
  5620,
  6287,
  6180,
  7626,
  50820,
  50820,
  4184,
  2166,
  21195,
  5000,
  11932,
  10960,
  9487,
  14637,
  11561,
  94,
  50896,
  50896,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  51026,
  51026,
  6404,
  4913,
  17197,
  51068,
  51068,
  21195,
  5000,
  11932,
  16313,
  9487,
  14637,
  11561,
  94,
  51140,
  51140,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  51246,
  51246,
  6404,
  4913,
  17197,
  51294,
  51294,
  21195,
  5000,
  11932,
  27505,
  14637,
  11561,
  94,
  51366,
  51366,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  14637,
  11561,
  94,
  51510,
  51510,
  38927,
  11614,
  6963,
  33679,
  14637,
  51612,
  51612,
  5000,
  1960,
  14637,
  4905,
  51664,
  51664,
  18987,
  51690,
  51690,
  5620,
  17572,
  18987,
  24842,
  51790
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>就是你的sequence to sequence model<|1.68|><|1.68|>都train出來就是會產生莫名其妙的結果<|4.56|><|4.56|>也許在訓練資料裡面<|6.32|><|6.32|>這種非常短的句子很少<|9.08|><|9.08|>所以機器它根本沒有辦法處理<|11.60|><|11.60|>不知道怎麼處理這種非常短的句子<|13.56|><|13.56|>你叫它念發財<|14.80|><|14.80|>它把發省略掉<|16.04|><|16.04|>只念財<|16.72|><|16.72|>你居然叫它念四次發財重複四次沒問題<|19.40|><|19.40|>叫它只念一次<|20.64|><|20.64|>居然會有問題<|21.88|><|21.88|>就是這麼的奇怪<|23.76|><|23.76|>但其實這個例子並沒有那麼常出現啦<|26.16|><|26.16|>就這個用sequence to sequence<|28.04|><|28.04|>認出來TTS<|28.88|><|endoftext|> | |
| 
	也 沒 有 你 想 像 的 那 麼 差 這 個 要 找 這 種 差 的 例 子 也 是 挺 花 時 間 的 要 花 很 多 時 間 才 找 得 到 這 種 差 的 例 子 但 這 樣 子 的 例 子 是 存 在 的 好 所 以 怎 麼 辦 呢 有 一 個 可 能 的 方 法 是 因 為 我 們 剛 才 發 現 說 機 器 居 然 漏 字 了 輸 入 有 一 些 東 西 它 居 然 沒 有 看 到 我 們 能 不 能 夠 強 迫 它 一 定 要 把 輸 入 的 每 一 個 東 西 通 通 看 過 呢 這 個 是 有 可 能 的 這 招 就 叫 做 guided attention | 
	ML2021_ASR_ST-86 | 
	[
  50361,
  50364,
  5620,
  18961,
  11834,
  655,
  281,
  8310,
  2316,
  50448,
  50448,
  7182,
  83,
  7146,
  29741,
  5620,
  6236,
  33299,
  8244,
  31127,
  104,
  15940,
  9572,
  5648,
  247,
  1546,
  35181,
  50592,
  50592,
  6404,
  40914,
  3581,
  5396,
  241,
  47027,
  35380,
  33404,
  32399,
  50680,
  50680,
  33005,
  14392,
  5881,
  255,
  1546,
  34592,
  7626,
  4563,
  15686,
  50818,
  50818,
  7239,
  17543,
  34386,
  11284,
  31337,
  8802,
  6963,
  40072,
  39289,
  13876,
  50944,
  50944,
  17572,
  11614,
  39289,
  13876,
  33005,
  14392,
  5881,
  255,
  1546,
  34592,
  7626,
  51042,
  51042,
  2166,
  19855,
  11284,
  33679,
  14637,
  11561,
  94,
  51104,
  51104,
  11284,
  16075,
  14637,
  2862,
  223,
  6904,
  98,
  29327,
  51166,
  51166,
  14003,
  33679,
  11561,
  94,
  51200,
  51200,
  2166,
  9636,
  227,
  5823,
  19855,
  11284,
  33679,
  19425,
  9487,
  14637,
  11561,
  94,
  12624,
  164,
  97,
  229,
  19425,
  9487,
  4913,
  17197,
  51334,
  51334,
  19855,
  11284,
  14003,
  33679,
  27505,
  51396,
  51396,
  9636,
  227,
  5823,
  6236,
  2412,
  17197,
  51458,
  51458,
  5620,
  21269,
  1546,
  44082,
  51552,
  51552,
  8395,
  14139,
  6287,
  17797,
  7626,
  35934,
  6963,
  20504,
  11279,
  7781,
  9581,
  9724,
  51672,
  51672,
  3111,
  6287,
  9254,
  11834,
  655,
  281,
  8310,
  51766,
  51766,
  22041,
  29741,
  51,
  7327,
  51808
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>也沒有你想像的那麼差<|1.50|><|1.50|>這個要找這種差的例子也是挺花時間的<|4.24|><|4.24|>要花很多時間才找得到這種差的例子<|6.24|><|6.24|>但這樣子的例子是存在的<|8.30|><|8.30|>好,所以怎麼辦呢<|10.14|><|10.14|>有一個可能的方法是<|12.04|><|12.04|>因為我們剛才發現說機器居然漏字了<|15.46|><|15.46|>輸入有一些東西它居然沒有看到<|18.46|><|18.46|>我們能不能夠強迫它<|20.74|><|20.74|>一定要把輸入的每一個東西通通看過呢<|24.40|><|24.40|>這個是有可能的<|25.60|><|25.60|>這招就叫做Edit Attention<|28.50|><|endoftext|> | |
| 
	那 像 這 種 guiding 的 任 務 都 用 得 上 我 覺 得 它 最 適 合 的 是 像 這 種 語 音 辨 識 語 音 合 成 這 種 任 務 因 為 像 語 音 辨 識 這 種 任 務 你 其 實 很 難 接 受 說 你 講 一 句 話 今 天 辨 識 出 來 居 然 有 一 段 機 器 沒 聽 到 或 語 音 合 成 你 輸 入 一 段 文 字 語 音 合 出 來 居 然 有 一 段 沒 有 唸 到 這 個 人 很 難 接 受 那 如 果 是 其 它 應 用 比 如 說 chatbot 或 者 是 summary 可 能 就 沒 有 那 麼 嚴 格 因 為 對 一 個 chatbot 來 說 輸 入 後 一 句 話 它 就 回 一 句 話 | 
	ML2021_ASR_ST-87 | 
	[
  50361,
  50364,
  6404,
  6963,
  38386,
  12760,
  1546,
  20504,
  21679,
  50439,
  50439,
  6287,
  4275,
  25085,
  33005,
  21679,
  1546,
  17797,
  7626,
  22021,
  41046,
  20127,
  20788,
  1546,
  50576,
  50576,
  4275,
  20127,
  20778,
  20788,
  18888,
  25085,
  5916,
  4511,
  33005,
  21679,
  1546,
  17797,
  7626,
  50676,
  50676,
  8395,
  24842,
  1546,
  17797,
  7626,
  1541,
  39781,
  3581,
  1546,
  50779,
  50779,
  2131,
  11,
  7239,
  42511,
  6240,
  50871,
  50871,
  2412,
  8990,
  16657,
  1546,
  9249,
  11148,
  1541,
  50966,
  50966,
  11471,
  5884,
  16940,
  18888,
  38927,
  4622,
  17543,
  34386,
  9636,
  227,
  5823,
  14065,
  237,
  22381,
  2289,
  51137,
  51137,
  12290,
  116,
  14028,
  32241,
  13824,
  26978,
  11284,
  9636,
  227,
  5823,
  6963,
  18032,
  51287,
  51287,
  5884,
  8225,
  28590,
  31649,
  22752,
  3316,
  104,
  11284,
  51401,
  51401,
  48161,
  16075,
  12290,
  116,
  14028,
  1546,
  23664,
  8990,
  26978,
  19550,
  19550,
  4200,
  8816,
  6240,
  51584,
  51584,
  41427,
  2412,
  16657,
  1546,
  51644,
  51644,
  2664,
  6852,
  249,
  3111,
  19855,
  10907,
  36,
  17975,
  31858,
  51789
] | 
	<|startoftranscript|><|zh|><|transcribe|><|0.00|>像這種該點的任務都用得上<|2.92|><|2.92|>我覺得它最適合的是像這種語音辨識、語音合成這種任務<|8.28|><|8.28|>因為像語音辨識這種任務<|10.96|><|10.96|>你其實很難接受說<|11.92|><|11.92|>你講一句話今天辨識出來<|14.32|><|14.32|>居然有一段機器沒聽到<|15.96|><|15.96|>或語音合成你輸入一段文字<|17.64|><|17.64|>語音合出來居然有一段沒有念到<|19.44|><|19.44|>這個人很難接受<|20.72|><|20.72|>那如果是其他應用<|21.68|><|21.68|>比如說checkbox或者是summary<|24.28|><|24.28|>可能就沒有那麼嚴格<|25.84|><|25.84|>因為對一個checkbox來說<|27.56|><|27.56|>你輸入一句話他就回一句話<|29.00|><|endoftext|> | 
End of preview. Expand
						in Data Studio
					
	- Downloads last month
- 15