UP主: 封面: 简介:2022Spring课程包含很多往年课程录影,合集根据李宏毅老师主页分类,P代表Preparation准备课程,C代表Class Material即2022Spring最新录制的视频,S代表Extra Material补充...
视频选集 01P1 預測本頻道觀看人數 (上) - 機器學習基本概念簡介 01P2 預測本頻道觀看人數 (下) - 深度學習基本概念簡介 01C1 机器学习课程速览 01C2 PyTorch Tutorial 1 01C3 PyTorch Tutorial 2 01C4 PyTorch Tutorial Colab 01S1 Brief Introduction of Deep Learning 01S2 Backpropagation 01S3 Predicting Pokémon CP 01S4 Pokemon classification 01S5 Logistic Regression ML 2022 Homework 1 02P1 机器学习任务攻略 02P2 类神经网络训练不起来怎么办 (一): 局部最小值 (local minima) 与鞍点 (saddle point) 02P3 类神经网络训练不起来怎么办 (二): 批次 (batch) 與動量 (momentum) 02P4 类神经网络训练不起来怎么办 (三):自動調整學習速率 (Learning Rate) 02P5 类神经网络训练不起来怎么办 (四):損失函數 (Loss) 也可能有影響 02C1 再探宝可梦、数码宝贝分类器 — 浅谈机器学习原理 02S1 Gradient Descent (Demo by AOE) 02S2 Optimization for Deep Learning (1_2) (由助教簡仲明同學講授) 02S3 Optimization for Deep Learning (2_2) (由助教簡仲明同學講授) ML 2022 Homework2 03P1 卷积神经网络 (Convolutional Neural Networks, CNN) 03C1 為什麼用了驗證集 (validation set) 結果卻還是過擬合(overfitting)了呢? 03C2 魚與熊掌可以兼得的深度學習 03S1 Spatial Transformer Layer 04P1 自注意力机制 (Self-attention) (上) 04P2 自注意力机制 (Self-attention) (下) 04S1 Recurrent Neural Network (Part I) 04S2 Recurrent Neural Network (Part II) 04S3 Graph Neural Network (1_2) (由助教姜成翰同學講授) 04S4 Graph Neural Network (2_2) (由助教姜成翰同學講授) 05P1 類神經網路訓練不起來怎麼辦 (五): 批次標準化 (Batch Normalization) 簡介 05P2 Transformer (上) 05P3 Transformer (下) 05C1 各式各樣神奇的自注意力機制 (Self-attention) 變型 05S1 Non-Autoregressive Sequence Generation (由助教莊永松同學講授) 05S2 Pointer Network 06P1 生成式對抗網路 (Generative Adversarial Network, GAN) (一) – 基本概念介紹 06P2 生成式對抗網路 (Generative Adversarial Network, GAN) (二) – 理論介紹與WGAN 06P3 生成式對抗網路 (Generative Adversarial Network, GAN) (三) – 生成器效能評估與條件式生成 06P4 生成式對抗網路 (Generative Adversarial Network, GAN) (四) – Cycle GAN 06S1 GAN Basic Theory 06S2 GAN General Framework 06S3 GAN WGAN EBGAN_360p 06S4 Unsupervised Learning - Deep Generative Model 06S5 Flow-based Generative Model 07P1 自督導式學習 (Self-supervised Learning) (一) – 芝麻街與進擊的巨人 07P2 自督導式學習 (Self-supervised Learning) (二) – BERT簡介 07P3 自督導式學習 (Self-supervised Learning) (三) – BERT的奇聞軼事 07P4 自督導式學習 (Self-supervised Learning) (四) – GPT的野望 07C1 如何有效的使用自督導式模型 - Data-Efficient & Parameter-Efficient Tuning (由姜成翰助教講授) 07S1 BERT and its family - Introduction and Fine-tune 07S2 BERT and its family - ELMo, BERT, GPT, XLNet, MASS, BART, UniLM, ELECTRA, a 07S3 來自獵人暗黑大陸的模型 GPT-3 07C1 語音與影像上的神奇自督導式學習模型 08P1 自編碼器 (Auto-encoder) (上) – 基本概念 08P2 自編碼器 (Auto-encoder) (下) – 領結變聲器與更多應用 08P3 Anomaly Detection 1-7 08P4 Anomaly Detection 2-7 08P5 Anomaly Detection 3-7 08P6 Anomaly Detection 4-7 08P7 Anomaly Detection 5-7 08P8 Anomaly Detection 6-7 08P9 Anomaly Detection 7-7 08S1 Unsupervised Learning - PCA 08S2 Unsupervised Learning - t-SNE 09P1 機器學習模型的可解釋性 (Explainable ML) (上) – 為什麼類神經網路可以正確分辨寶可夢和數碼寶貝呢? 09P2 機器學習模型的可解釋性 (Explainable ML) (下) –機器心中的貓長什麼樣子? 09C1 自然語言處理上的對抗式攻擊 (由姜成翰助教講授) - Part 1 10P1 來自人類的惡意攻擊 (Adversarial Attack) (上) – 基本概念 10P2 來自人類的惡意攻擊 (Adversarial Attack) (下) – 類神經網路能否躲過人類深不見底的惡意? 10C1 自然語言處理上的對抗式攻擊 (由姜成翰助教講授) - Part 2 11P1 概述領域自適應 (Domain Adaptation) 11C1 惡搞自督導式學習模型 BERT 的三個故事 12P1 强化学习RL (一) – 增強式學習跟機器學習一樣都是三個步驟 12P2 强化学习RL (二) – Policy Gradient 與修課心情 12P3 强化学习RL (三) - Actor-Critic 12P4 强化学习RL (四) - 回饋非常罕見的時候怎麼辦機器的望梅止渴 12P5 强化学习RL (五) - 如何從示範中學習?逆向增強式學習 (Inverse RL) 13P1 神經網路壓縮 (Network Compression) (一) - 類神經網路剪枝 (Pruning) 與大樂透假說 (Lottery Ticket 13P2 神經網路壓縮 (Network Compression) (二) - 從各種不同的面向來壓縮神經網路 13S1 Proximal Policy Optimization (PPO) 13S2 Q-learning (Basic Idea) 13S3 Q-learning (Advanced Tips) 14P1 終身學習 (Life Long Learning, LL) (一) - 為什麼今日的人工智慧無法成為天網?災難性遺忘(Catastrophic For 14P2 終身學習 (Life Long Learning, LL) (二) - 災難性遺忘(Catastrophic Forgetting)的克服之道 15P1 預測本頻道觀看人數 (上) - 機器學習基本概念簡介 15P2 預測本頻道觀看人數 (下) - 深度學習基本概念簡介 15P3 元學習 Meta Learning (一) - 元學習跟機器學習一樣也是三個步驟 15P4 元學習 Meta Learning (二) - 萬物皆可 Meta 15C1 各種奇葩的元學習 (Meta Learning) 用法 15S1 Meta Learning MAML 1-9 15S2 Meta Learning MAML 2-9 15S3 Meta Learning MAML 3-9 15S4 Meta Learning MAML 4-9 15S5 Meta Learning MAML 5-9 15S6 Meta Learning MAML 6-9 15S7 Meta Learning MAML 7-9 15S8 Meta Learning MAML 8-9 15S9 Meta Learning MAML 9-9 15S10 Meta Learning Gradient Descent as LSTM 1-3 15S11 Meta Learning Gradient Descent as LSTM 2-3 15S12 Meta Learning Gradient Descent as LSTM 3-3 15S13 Meta Learning Metricbased 1-3 15S14 Meta Learning Metricbased 2-3 15S15 Meta Learning Metricbased 3-3 15S16 Meta Learning TrainTest as RNN