[2022-01-25] 오늘의 자연어처리

2022. 1. 25. 10:30paper-of-the-day

반응형

 

Context-Tuning: Learning Contextualized Prompts for Natural Language Generation

 

Recently, pretrained language models (PLMs) have made exceptional success in language generation. To leverage the rich knowledge encoded by PLMs, a simple yet powerful mechanism is to use prompts, in the form of either discrete tokens or continuous embeddings. In existing studies, manual prompts are time-consuming and require domain expertise, while continuous prompts are typically independent of the inputs. To address this issue, we propose a novel continuous prompting approach, called Context-Tuning, to fine-tuning PLMs for natural language generation. Firstly, the prompts are derived based on the input text, so that they can elicit useful knowledge from PLMs for generation. We refer to such prompts as contextualized prompts. Secondly, to further enhance the relevance of the generated text to the inputs, we utilize continuous inverse prompting to refine the process of natural language generation by modeling an inverse generation process from output to input. Moreover, we propose a lightweight contexttuning, fine-tuning only 0.4% of parameters while retaining well performance.

 

최근에, 사전 훈련된 언어 모델(PLM)은 다음과 같은 분야에서 예외적인 성공을 거두었다. 언어 세대 PLM에 의해 인코딩된 풍부한 지식을 활용하기 위해, 간단한 그러나 강력한 메커니즘은 분리된 토큰의 형태로 프롬프트를 사용하는 것이다. 또는 연속 임베딩. 기존 스터디에서 수동 프롬프트는 시간이 많이 걸리고 도메인 전문 지식이 필요한 반면, 지속적인 프롬프트는 다음과 같습니다. 일반적으로 입력과 무관합니다. 이 문제를 해결하기 위해 우리는 소설을 제안한다. 컨텍스트 튜닝이라고 하는 지속적인 프롬프트 접근 방식을 사용하여 PLM을 미세 조정한다. 자연어 세대 첫째, 프롬프트는 다음을 기반으로 도출된다. 텍스트 입력: 생성을 위해 PLM으로부터 유용한 지식을 이끌어낼 수 있습니다. 우리는 그러한 프롬프트를 상황별 프롬프트라고 부른다. 둘째, 더 나아가서 생성된 텍스트와 입력의 관련성을 강화한다. 자연어의 과정을 다듬기 위해 끊임없이 역질문을 하는 것. 출력에서 입력으로 역 생성 프로세스를 모델링하여 생성. 또한, 우리는 경량 컨텍스트 조정을 제안한다. 미세 조정은 의 0.4%에 불과하다. 매개 변수를 사용할 수 있습니다. 

 

 

Learning Two-Step Hybrid Policy for Graph-Based Interpretable Reinforcement Learning

 

We present a two-step hybrid reinforcement learning (RL) policy that is designed to generate interpretable and robust hierarchical policies on the RL problem with graph-based input. Unlike prior deep reinforcement learning policies parameterized by an end-to-end black-box graph neural network, our approach disentangles the decision-making process into two steps. The first step is a simplified classification problem that maps the graph input to an action group where all actions share a similar semantic meaning. The second step implements a sophisticated rule-miner that conducts explicit one-hop reasoning over the graph and identifies decisive edges in the graph input without the necessity of heavy domain knowledge. This two-step hybrid policy presents human-friendly interpretations and achieves better performance in terms of generalization and robustness. Extensive experimental studies on four levels of complex text-based games have demonstrated the superiority of the proposed method compared to the state-of-the-art.

 

우리는 다음과 같은 2단계 하이브리드 강화 학습(RL) 정책을 제시한다. RL에 대해 해석 가능하고 강력한 계층적 정책을 생성하도록 설계된다. 그래프 기반 입력의 문제. 이전의 심층 강화 학습과 달리 엔드 투 엔드 블랙박스 그래프 신경망에 의해 매개 변수화된 정책, 접근법은 의사결정 과정을 두 단계로 분리시킨다. 첫번째 step은 그래프 입력을 매핑하는 단순 분류 문제이다. 모든 작업이 유사한 의미적 의미를 공유하는 작업 그룹. 두번째 명확한 원홉을 수행하는 정교한 규칙 체계를 구현한다. 그래프에 대한 추론 및 그래프 입력의 결정적 가장자리 식별 많은 지식 없이도 말이야 이 2단계 하이브리드 정책 인간 친화적인 해석을 제시하고 더 나은 성과를 달성한다. 일반화와 견고성의 조건. 4가지에 대한 광범위한 실험 연구 복잡한 텍스트 기반 게임의 수준은 의 우수성을 입증했다. 최신 기술과 비교하여 제안된 방법 

 

 

Taxonomy Enrichment with Text and Graph Vector Representations

 

Knowledge graphs such as DBpedia, Freebase or Wikidata always contain a taxonomic backbone that allows the arrangement and structuring of various concepts in accordance with the hypo-hypernym ("class-subclass") relationship. With the rapid growth of lexical resources for specific domains, the problem of automatic extension of the existing knowledge bases with new words is becoming more and more widespread. In this paper, we address the problem of taxonomy enrichment which aims at adding new words to the existing taxonomy. We present a new method that allows achieving high results on this task with little effort. It uses the resources which exist for the majority of languages, making the method universal. We extend our method by incorporating deep representations of graph structures like node2vec, Poincaré embeddings, GCN etc. that have recently demonstrated promising results on various NLP tasks. Furthermore, combining these representations with word embeddings allows us to beat the state of the art. We conduct a comprehensive study of the existing approaches to taxonomy enrichment based on word and graph vector representations and their fusion approaches. We also explore the ways of using deep learning architectures to extend the taxonomic backbones of knowledge graphs. We create a number of datasets for taxonomy extension for English and Russian. We achieve state-of-the-art results across different datasets and provide an in-depth error analysis of mistakes.

 

DBpedia, Freebase 또는 Wikidata와 같은 지식 그래프는 항상 다음을 포함합니다. 다양한 배열과 구조를 가능하게 하는 분류학적 중추 하위 클래스(hypo-hypernym) 관계에 따른 개념. 특정 도메인에 대한 어휘 자원의 빠른 성장과 함께, 의 문제 새로운 단어로 기존 지식 베이스의 자동 확장이 되고 있다 점점 더 널리 퍼지고 있습니다. 이 논문에서, 우리는 분류학 문제를 다룬다. 기존 분류법에 새로운 단어를 추가하는 것을 목표로 하는 풍부화. 우리는 이 작업에서 높은 결과를 얻을 수 있는 새로운 방법을 제시한다. 적은 노력 그것은 대부분의 언어에 존재하는 자원을 사용한다. 이 방법을 보편화합니다. 우리는 딥을 통합함으로써 우리의 방법을 확장한다. node2vec, Poincaré 임베딩, GCN과 같은 그래프 구조의 표현 다양한 NLP 작업에서 유망한 결과를 최근에 입증한 등. 게다가, 이러한 표현을 단어 임베딩과 결합하면 우리는 다음을 할 수 있다. 첨단 기술을 능가하다 우리는 분류학에 대한 기존 접근법에 대한 포괄적인 연구를 수행한다. 단어 및 그래프 벡터 표현과 이들의 융합을 기반으로 한 풍부함 접근. 우리는 또한 딥 러닝 아키텍처를 사용하여 다음을 수행하는 방법을 탐구한다. 지식 그래프의 분류학적 골격을 확장하다. 우리는 많은 것을 만든다. 영어 및 러시아어에 대한 분류법 확장을 위한 데이터 세트. 우리는 성취한다 서로 다른 데이터셋에 대한 최신 결과를 제공하고 심층적인 결과를 제공합니다. 오류 분석. 

 

 

반응형