1. Supervised Learning
- Regression
- Classification
2. Unsupervised Learning
- Clustering
- Anomaly detection
- Approaches for learning latent variable models
3. Self-supervised Learning
- Context-based
- 将一张图分成9个部分,然后通过预测这几个部分的相对位置来产生损失。
- 比如输入这张图中小猫的眼睛和右耳朵,然后让模型学习到猫的右耳朵是在眼睛的右上方的,如果模型能够很好得完成这个任务,那么就可以认为模型学习到的表征是具有语义信息的。
- Temporal-based
- 在视频领域可以基于帧的相似性进行研究,对于视频中的每一帧存在特征相似的概念,简单来说可以认为视频中的相邻帧的特征是相似的,而相隔较远的视频帧之间的相似度较低。通过构建这种相似(positive)和不相似(negative)的样本来进行自监督约束。
- Contrastive-based
- 通过学习对两个事物的相似或不相似进行编码来构建表征。
4. Reinforcement Learning
强化学习:解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。自监督学习的优势,就是可以在无标签的数据上完成训练,而监督学习需要大量的有标签数据,强化学习需要与环境的大量交互尝试,数据为王的时代,此特点也使得大家充分相信自监督学习才是人工智能的发展方向。
常见模型:马尔可夫决策过程(Markov Decision Process, MDP)
5. Representation Learning
表示学习:就是将三元组表示成向量的这个过程就称为表示学习。
In representation learning, knowledge graph embedding (KGE), also referred to as knowledge representation learning (KRL), or multi-relation learning, is a machine learning task of learning a low-dimensional representation of a knowledge graph's entities and relations while preserving their semantic meaning. Leveraging their embedded representation, knowledge graphs (KGs) can be used for various applications such as link prediction, triple classification, entity recognition, clustering, and relation extraction.
Reference:
https://mp.weixin.qq.com/s?__biz=MjM5MzUzNzE0NQ==&mid=2653788682&idx=5&sn=235decca00b0d9dd36089fd13275e2b6&chksm=bd4cb71c8a3b3e0a44501c1ccead2e842de05dc5894ca1d7cb614091546d63e0f40d884b7f90&scene=27
网友评论