我的梦想
不是每个人都应该像我这样去建造一座水晶大教堂,但是每个人都应该拥有自己的梦想,设计自己的梦想,追求自己的梦想,实现自己的梦想。梦想是生命的灵魂,是心灵的灯塔,是引导人走向成功的信仰。有了崇高的梦想,只要矢志不渝地追求,梦想就会成为现实,奋斗就会变成壮举,生命就会创造奇迹。——罗伯·舒乐
  听听音乐
  推荐文章
GNN

Heterogeneous Graph Neural Networks for Malicious Account Detection

支付宝2018年CIKM论文,论文使用user-device图,提出device aggregation和activity aggregation的数据特征,并且利用该特征构造了GNN的消息传递函数,进行恶意账户识别。

阅读更多
torch.nn.Module.register_buffer()的使用 torch.nn.Module.register_buffer()的使用
在使用torch.nn.Module类编写深度学习模型的时候,我们通常会在里面定义很多的Parameters(比如nn.Linear等等)。这些Parameters是会随着模型的不断训练而更新的。 但是,如果我们需要定义一些不变的常量该怎么
2021-08-26 CarlYoung
CasEE: A Joint Learning Framework with Cascade Decoding for Overlapping Event Extraction CasEE: A Joint Learning Framework with Cascade Decoding for Overlapping Event Extraction
CasEE: A Joint Learning Framework with Cascade Decoding for Overlapping Event ExtractionBackground & Contributions事件
2021-08-22
Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing
Prompt EngineeringPrompt ShapePrompt shape主要分为两种: cloze prompts。这种就是常见的完型填空式,多用于text classification任务,通常用Masked LM求解;
2021-08-20 CarlYoung
8月中旬至9月中旬计划 8月中旬至9月中旬计划
8月中旬至9月中旬计划 课程学习:MIT 大学计算机教育中缺失的一门课 IDEA VIM YYDS! LeetCode刷刷刷! 代码多练习才能慢慢掌握! 基本确定了目标:算法工程师中偏工程的那一部分,而不是偏算法
2021-08-15
AdaPrompt: Adaptive Prompt-based Finetuning for Relation Extraction AdaPrompt: Adaptive Prompt-based Finetuning for Relation Extraction
Motivations & Contributions近期,关于Prompt-based的论文有很多,其核心思想在于利用Pre-trained Language Model的原有预训练任务(最常见的就是MLM),在不引入新的参数的情
Windows下查看GPU(NVIDI)使用情况 Windows下查看GPU(NVIDI)使用情况
Windows下查看GPU(NVIDI)使用情况
2021-08-08
Hello World Hello World
Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hex
2021-08-08 CarlYoung
SimCSE: Simple Contrastive Learning of Sentence Embeddings SimCSE: Simple Contrastive Learning of Sentence Embeddings
SimCSE: Simple Contrastive Learning of Sentence Embeddings1. Background(要解决的问题)得到更好的Sentence Embedding 2. Contributions(
2021-07-11
Event Time Extraction and Propagation via Graph Attention Networks Event Time Extraction and Propagation via Graph Attention Networks
Event Time Extraction and Propagation via Graph Attention Networks 作者: Background(要解决的问题)当前的事件时间抽取(temporal event gro
实体关系抽取新范式!TPLinker:单阶段联合抽取,并解决暴漏偏差~ 实体关系抽取新范式!TPLinker:单阶段联合抽取,并解决暴漏偏差~
划重点:TPLinker是实体关系抽取的新范式,巧妙设计了统一的联合抽取标注框架,可实现单阶段联合抽取、并解决暴露偏差,同时依旧可以解决复杂的重叠关系抽取。 实体关系抽取是NLP社区备受关注的子任务之一,热度很高,在2020年SOTA就
2021-05-28
TPLinker: Single-stage Joint Extraction of Entities and Relations Through Token Pair Linking TPLinker: Single-stage Joint Extraction of Entities and Relations Through Token Pair Linking
为了解决实体关系联合抽取中存在的重叠关系和暴露偏差问题,本文提出了一个单阶段联合抽取模型——TPLinker,在2个数据集(NYT和WebNLG)上达到了SOTA。
1 / 11