XYZ軟體急先鋒


深度學習理論入門基礎課程 中文教學版(DVD9一片裝 此片售價200元)




-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
軟體名稱:深度學習理論入門基礎課程 中文教學版(DVD9一片裝 此片售價200元)
語系版本:中文教學版
光碟片數:單片裝
破解說明:
系統支援:Windows 7/8/10
軟體類型:電腦教學
硬體需求:PC
更新日期:2024-12-28
官方網站:
中文網站:
軟體簡介:
銷售價格:$200元
-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=


 

軟體簡介:
 
001-01 - 1.0歡迎.mp4
002-02 - 1.1什麼是神經網絡.mp4
003-03 - 1.2監督學習與神經網絡.mp4
004-04 - 1.3監督學習與神經網絡.mp4
005-05 - 1.4關於這門課.mp4
006-06 - 1.5課程資源.mp4
007-07 - 1.6Geoffrey Hinton訪談(選修).mp4
008-08 - 2.1二元分類.mp4
009-09 - 2.2邏輯回歸.mp4
010-10 - 2.3邏輯回歸損失函數.mp4
011-11 - 2.4梯度下降.mp4
012-12 - 2.5導數.mp4
013-13 - 2.6更多導數示例.mp4
014-14 - 2.7計算圖.mp4
015-15 - 2.8計算圖求導數.mp4
016-16 - 2.9邏輯回歸梯度下降.mp4
017-17 - 2.10m示例上的梯度下降.mp4
018-18 - 2.11向量化.mp4
019-19 - 2.12更多向量化示例.mp4
020-20 - 2.13向量化邏輯回歸.mp4
021-21 - 2.14向量化邏輯回歸的梯度輸出.mp4
022-22 - 2.15Python中的廣播.mp4
023-23 - 2.16python numpy 向量的註釋.mp4
024-24 - 2.17Jupyter iPython 筆記本的快速瀏覽.mp4
025-25 - 2.18邏輯回歸損失函數的解釋(選修).mp4
026-26 - 2.19Pieter Abbeel訪談(選修).mp4
027-27 - 3.1神經網絡概覽.mp4
028-28 - 3.2神經網絡的表現形式.mp4
029-29 - 3.3計算神經網絡的輸出.mp4
030-30 - 3.4多樣本向量化.mp4
031-31 - 3.5向量化實現的解釋.mp4
032-32 - 3.6激活函數.mp4
033-33 - 3.7為什麼需要非線性激活函數.mp4
034-34 - 3.8激活函數的導數.mp4
035-35 - 3.9神經網絡的梯度下降.mp4
036-36 - 3.10反向傳播的直覺(選修).mp4
037-37 - 3.11隨機初始化.mp4
038-38 - 3.12Ian Goodfellow訪談(選修).mp4
039-39 - 4.1深L層神經網絡.mp4
040-40 - 4.2深層網絡中的正向傳播.mp4
041-41 - 4.3正確的矩陣維數.mp4
042-42 - 4.4為什麼深度這麼有理.mp4
043-43 - 4.5為深層神經網絡構建模塊.mp4
044-44 - 4.6正向和反向傳播.mp4
045-45 - 4.7參數vs超參數.mp4
046-46 - 4.8這與大腦的關係是什麼.mp4
047-第二課1.1訓練 開發 測試集.mp4
048-1.2偏見 方差.mp4
049-1.3機器學習的基本配方.mp4
050-1.4正則化.mp4
051-1.5為什麼正則化可以減少過擬合.mp4
052-1.6正規化拋棄.mp4
053-1.7理解拋棄.mp4
054-1.8其他的正則化方法.mp4
055-1.9歸一化輸入.mp4
056-1.10梯度消失 爆炸.mp4
057-1.11深度網絡權值初始化.mp4
058-1.12梯度的數值近似.mp4
059-1.13梯度檢查.mp4
060-1.14梯度檢查實施須知.mp4
061-2.1小批量梯度下降.mp4
062-2.2理解小批量梯度下降.mp4
063-2.3指數加權平均.mp4
064-2.4理解指數加權平均.mp4
065-2.5指數加權平均數的偏差修正.mp4
066-2.6動量梯度下降.mp4
067-2.7RMSprop.mp4
068-2.8適應性矩估計(Adam)算法優化.mp4
069-2.9學習速率衰減.mp4
070-2.10局部最優解問題.mp4
071-3.1參數調整過程.mp4
072-3.2使用適當的標準來選擇超參數.mp4
073-3.3實踐中的超參數調整 熊貓vs魚子醬.mp4
074-3.4網絡中的正常化激活.mp4
075-3.5將Batch Norm擬合到神經網絡中.mp4
076-3.6為什麼Batch Norm有效.mp4
077-3.7測試時的Batch Norm.mp4
078-3.8Softmax回歸.mp4
079-3.9訓練一個softmax分類器.mp4
080-3.10深度學習框架.mp4
081-3.11TensorFlow.mp4
082-第三課01 - 1.1為什麼選擇ML策略.mp4
083-02 - 1.2正交化.mp4
084-03 - 1.3單數評價指標.mp4
085-04 - 1.4滿足和優化指標.mp4
086-05 - 1.5訓練 開發 測試分佈.mp4
087-06 - 1.6開發和測試集的大小和指標.mp4
088-07 - 1.7何時更改開發  測試集和指標.mp4
089-08 - 1.8為什麼選擇人類水平表現.mp4
090-09 - 1.9可避免的偏見.mp4
091-10 - 1.10理解人類水平表現.mp4
092-11 - 1.11超越人類水平表現.mp4
093-12 - 1.12提高您的模型性能.mp4
094-13 - 1.13Andrej Karpathy訪談.mp4
095-14 - 2.1進行誤差分析.mp4
096-15 - 2.2清理錯誤標注的數據.mp4
097-16 - 2.3快速構建您的第一個系統,並進行迭代.mp4
098-17 - 2.4訓練和測試的不同分佈.mp4
099-18 - 2.5不匹配數據分佈的偏差和方差.mp4
100-19 - 2.6解決數據不匹配問題.mp4
101-20 - 2.7遷移學習.mp4
102-21 - 2.8多任務學習.mp4
103-22 - 2.9什麼是端到端深度學習.mp4
104-23 - 2.10是否使用端到端深度學習.mp4
105-24 - 2.11Ruslan Salakhutdinov訪談.mp4
106-第四課01 - 1.1計算機視覺.mp4
107-02 - 1.2邊緣探測示例.mp4
108-03 - 1.3更多邊緣探測.mp4
109-04 - 1.4填充.mp4
110-05 - 1.5卷積步長.mp4
111-06 - 1.6三維卷積.mp4
112-07 - 1.7卷積網絡的一層.mp4
113-08 - 1.8卷積網絡的簡單示例.mp4
114-09 - 1.9池化層.mp4
115-10 - 1.10CNN示例.mp4
116-11 - 1.11為什麼用卷積.mp4
117-12 - 2.1為什麼要進行案例研究?.mp4
118-13 - 2.2經典網絡.mp4
119-14 - 2.3殘差網絡.mp4
120-15 - 2.4為什麼使用殘差網絡.mp4
121-16 - 2.5網絡中的網絡及1x1卷積.mp4
122-17 - 2.6初始網絡動機.mp4
123-18 - 2.7初始網絡.mp4
124-19 - 2.8MobileNet.mp4
125-20 - 2.9MobileNet架構.mp4
126-21 - 2.10EfficientNet.mp4
127-22 - 2.11使用開放源碼.mp4
128-23 - 2.12遷移學習.mp4
129-24 - 2.13數據增強.mp4
130-25 - 2.14計算機視覺狀態.mp4
131-26 - 3.1目標定位.mp4
132-27 - 3.2地標檢測.mp4
133-28 - 3.3目標檢測.mp4
134-29 - 3.4在卷積網絡上實現滑動窗口.mp4
135-30 - 3.5邊界框預測.mp4
136-31 - 3.6並交比.mp4
137-32 - 3.7非極大值抑制.mp4
138-33 - 3.8錨框.mp4
139-34 - 3.9YOLO(You Only Look Once)算法.mp4
140-35 - 3.10區域推薦網絡(選修).mp4
141-3.11 用u-net進行語義分割.mp4
142-3.12 轉置卷積.mp4
143-3.13 u-net 結構靈感.mp4
144-3.14 u-net 結構.mp4
145-36 - 4.1.1什麼是人臉識別.mp4
146-37 - 4.1.2單樣本學習.mp4
147-38 - 4.1.3孿生神經網絡.mp4
148-39 - 4.1.4Triplet Loss三元組損失.mp4
149-40 - 4.1.5人臉驗證和二進制分類.mp4
150-41 - 4.2.1什麼是神經風格遷移.mp4
151-42 - 4.2.2什麼是深度卷積神經網絡學習.mp4
152-43 - 4.2.3代價函數.mp4
153-44 - 4.2.4內容代價函數.mp4
154-45 - 4.2.5風格代價函數.mp4
155-46 - 4.2.6 1維和3維推廣.mp4
156-第四課1.1為什麼用序列模型.mp4
157-1.2註釋.mp4
158-1.3循環神經網絡模型.mp4
159-1.4通過時間的反向傳播.mp4
160-1.5不同類型的RNNs.mp4
161-1.6語言模型和序列生成.mp4
162-1.7對新序列的採樣.mp4
163-1.8RNNs的梯度消失.mp4
164-1.9門控循環單元(GRU).mp4
165-1.10長短期記憶(LSTM).mp4
166-1.11雙向RNN.mp4
167-1.12深度RNNs.mp4
168-2.1詞表示.mp4
169-2.2使用詞嵌入.mp4
170-2.3詞嵌入的性能.mp4
171-2.4矩陣嵌入.mp4
172-2.5學習詞嵌入.mp4
173-2.6詞轉換成向量形式.mp4
174-2.7負採樣.mp4
175-2.8GloVe 詞向量.mp4
176-2.9情感分類.mp4
177-2.10詞嵌入除偏.mp4
178-3.1基礎模型.mp4
179-3.2選擇最有可能的句子.mp4
180-3.3集束搜索.mp4
181-3.4細化集束搜索.mp4
182-3.5集束搜索中的錯誤分析.mp4
183-3.6Bleu分數(選修).mp4
184-3.7注意力模型直覺.mp4
185-3.8注意力模型.mp4
186-3.9語音識別.mp4
187-3.10觸發詞檢測.mp4
188-3.11Transformer網絡直覺.mp4
189-3.12自注意力機制.mp4
190-3.13多頭注意力機制.mp4
191-3.14Transformer網絡.mp4
192-3.15結論及感謝.mp4


-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=