[2022-03-16] 오늘의 자연어처리

2022. 3. 16. 10:30paper-of-the-day

반응형

 

Seamlessly Integrating Factual Information and Social Content with Persuasive Dialogue

 

Effective human-chatbot conversations need to achieve both coherence and efficiency. Complex conversation settings such as persuasion involve communicating changes in attitude or behavior, so users' perspectives need to be carefully considered and addressed, even when not directly related to the topic. In this work, we contribute a novel modular dialogue system framework that seamlessly integrates factual information and social content into persuasive dialogue. Our framework is generalizable to any dialogue tasks that have mixed social and task contents. We conducted a study that compared user evaluations of our framework versus a baseline end-to-end generation model. We found our model was evaluated to be more favorable in all dimensions including competence and friendliness compared to the baseline model which does not explicitly handle social content or factual questions.

 

효과적인 Human-chatbot 대화는 일관성과 효율성. 설득과 같은 복잡한 대화 설정 태도나 행동의 변화를 전달하기 위해 사용자의 관점은 직접 관련되지 않은 경우에도 신중하게 고려되고 다루어진다. 이 작업에서, 우리는 새로운 모듈식 대화 시스템 프레임워크를 제공한다. 사실 정보와 소셜 콘텐츠를 심리스하게 통합하여 설득력 있는 대화 우리의 프레임워크는 다음과 같은 대화 태스크로 일반화할 수 있다. 사회와 업무의 내용이 뒤섞여 있다. 우리는 사용자를 비교한 연구를 실시했습니다. 기본 엔드 투 엔드 생성 모델에 대한 평가입니다. 우리가 델의 모델이 다음을 포함한 모든 면에서 더 유리하다는 것을 알게 되었습니다. 그렇지 않은 기준선 모델에 비해 역량과 친화성 사회적 내용 또는 사실적 질문을 명시적으로 처리합니다. 

 

 

Representation Learning for Resource-Constrained Keyphrase Generation

 

State-of-the-art keyphrase generation methods generally depend on large annotated datasets, limiting their performance in domains with constrained resources. To overcome this challenge, we investigate strategies to learn an intermediate representation suitable for the keyphrase generation task. We introduce salient span recovery and salient span prediction as guided denoising language modeling objectives that condense the domain-specific knowledge essential for keyphrase generation. Through experiments on multiple scientific keyphrase generation benchmarks, we show the effectiveness of the proposed approach for facilitating low-resource and zero-shot keyphrase generation. Furthermore, we observe that our method especially benefits the generation of absent keyphrases, approaching the performance of SOTA methods trained with large training sets.

 

최첨단 키 프레이즈를 생성하는 방법은 일반적으로 대규모에 의존합니다. 주석이 달린 데이터셋, 제약이 있는 도메인에서의 퍼포먼스 제한 자원. 이 과제를 극복하기 위해, 우리는 학습 전략을 조사한다. 키 프레이즈 생성 태스크에 적합한 중간 표현. 우리가 유도 노이즈 제거로서 돌출 스판 회복 및 돌출 스판 예측을 도입한다. 도메인 고유의 지식을 집약하는 언어 모델링 목표 키 프레이즈 생성에 필수적입니다. 여러 과학실험을 통해 키프레이즈 생성 벤치마크, 제안의 효과를 보여줍니다. 저리소스 및 제로샷 키프레이즈를 쉽게 생성할 수 있는 접근법입니다. 게다가, 우리는 우리의 방법이 특히 의 생성에 도움이 된다는 것을 관찰한다. 키 프레이즈가 없는 경우로 훈련을 받은 SOTA 방법의 성능에 접근합니다. 큰 트레이닝 세트 

 

 

Unsupervised Extractive Opinion Summarization Using Sparse Coding

 

Opinion summarization is the task of automatically generating summaries that encapsulate information from multiple user reviews. We present Semantic Autoencoder (SemAE) to perform extractive opinion summarization in an unsupervised manner. SemAE uses dictionary learning to implicitly capture semantic information from the review and learns a latent representation of each sentence over semantic units. A semantic unit is supposed to capture an abstract semantic concept. Our extractive summarization algorithm leverages the representations to identify representative opinions among hundreds of reviews. SemAE is also able to perform controllable summarization to generate aspect-specific summaries. We report strong performance on SPACE and AMAZON datasets, and perform experiments to investigate the functioning of our model. Our code is publicly available at this https URL.

 

의견 요약은 다음과 같은 요약을 자동으로 생성하는 작업입니다. 는, 복수의 유저 리뷰로부터 얻은 정보를 캡슐화합니다. 시멘틱을 제시합니다. 자동인코더(SemAE)를 통해 추출적인 의견 집약을 수행할 수 있습니다. 감독 없는 태도 SemAE는 사전 학습을 사용하여 암묵적으로 캡처합니다. 검토로부터 의미 정보를 얻고 각각의 잠재적인 표현을 학습한다. 의미 단위 위에 문장. 시맨틱 유닛은 이 모든 데이터를 추상적 의미 개념 델의 추출 요약 알고리즘은 수백 개의 리뷰 중 대표 의견을 식별하기 위한 표현. 또한 SemAE는 제어 가능한 집약을 실행하여 에스펙트 고유의 요약. SPACE와 AMAZON의 퍼포먼스가 우수하다고 보고합니다. 실험을 수행하여 모델의 기능을 조사합니다. 당사의 코드는 이 https URL에서 공개됩니다. 

 

 

반응형