Stars
结合BERT+GRU+ATT模型,对自己收集的人物关系数据进行模型训练,用于人物关系抽取。
johnson7788 / OpenNRE
Forked from thunlp/OpenNREAn Open-Source Package for Neural Relation Extraction (NRE)
实体关系抽取pipline方式,使用了BiLSTM+CRF+BERT
HeiBoWang / Pytorch-NLP
Forked from mzc421/Pytorch-NLP使用Pytorch框架对NLP方向上的文本分类、实体识别、三元组抽取做代码实战
记录经典NER模型,目前仓库包含如下模型代码:BERT, LSTM, GlobalPointer, CRF, HMM
Knowledge distillation in text classification with pytorch. 知识蒸馏,中文文本分类,教师模型BERT、XLNET,学生模型biLSTM。
医疗知识图谱构建实战,通过爬虫获取百度百科数据,使用Mongodb存储结构化三元组,并使用neo4j进行知识图谱的构建及可视化; Medical Knowledge Graph; Crawler; neo4j
自然语言处理实验(sougou数据集),TF-IDF,文本分类、聚类、词向量、情感识别、关系抽取等
An education NER dataset repo; This dataset can be used to recognize the fine-grained knowledge included in educational texts.
基于pytorch的bert_bilstm_crf中文命名实体识别
基于Tensorflow2.3开发的NER模型,都是CRF范式,包含Bilstm(IDCNN)-CRF、Bert-Bilstm(IDCNN)-CRF、Bert-CRF,可微调预训练模型,可对抗学习,用于命名实体识别,配置后可直接运行。
使用torch整合两种经典的指针NER抽取范式,分别是SpanBert和苏神的GlobalPointer,简单加了些tricks,配置后一键运行
中文命名实体识别NER。用keras实现BILSTM+CRF、IDCNN+CRF、BERT+BILSTM+CRF进行实体识别。结果当然是BERT+BILSTM+CRF最好啦。
Awesome Pretrained Chinese NLP Models,高质量中文预训练模型&大模型&多模态模型&大语言模型集合
DomainWordsDict, Chinese words dict that contains more than 68 domains, which can be used as text classification、knowledge enhance task。涵盖68个领域、共计916万词的专业词典知识库,可用于文本分类、知识增强、领域词汇库扩充等自然语言处理应用。
新闻文本自动摘要, 以Textrank 为基础,融入 标题特征,单句位置特征,重要实体特征,线索词特征,做句子的综合权重计算,并使用MMR算法,兼顾自动摘要的主题相关性和摘要多样性。
[EMNLP 2022] An Open Toolkit for Knowledge Graph Extraction and Construction
利用指针网络进行信息抽取,包含命名实体识别、关系抽取、事件抽取。
中文命名实体识别。包含目前最新的中文命名实体识别论文、中文实体识别相关工具、数据集,以及中文预训练模型、词向量、实体识别综述等。
A PyTorch-based toolkit for natural language processing