2022. 2. 15. 10:30ㆍpaper-of-the-day
InPars: Data Augmentation for Information Retrieval using Large Language Models
The information retrieval community has recently witnessed a revolution due to large pretrained transformer models. Another key ingredient for this revolution was the MS MARCO dataset, whose scale and diversity has enabled zero-shot transfer learning to various tasks. However, not all IR tasks and domains can benefit from one single dataset equally. Extensive research in various NLP tasks has shown that using domain-specific training data, as opposed to a general-purpose one, improves the performance of neural models. In this work, we harness the few-shot capabilities of large pretrained language models as synthetic data generators for IR tasks. We show that models finetuned solely on our unsupervised dataset outperform strong baselines such as BM25 as well as recently proposed self-supervised dense retrieval methods. Furthermore, retrievers finetuned on both supervised and our synthetic data achieve better zero-shot transfer than models finetuned only on supervised data. Code, models, and data are available at this https URL .
정보 검색 커뮤니티는 최근에 다음과 같은 혁명을 목격했다. 사전 훈련된 대형 변압기 모델에 적용. 이것의 또 다른 핵심 재료 MS MARCO 데이터셋의 규모와 다양성이 가능했다. 다양한 과제로의 제로샷 전이 학습. 그러나 모든 IR 작업과 도메인은 하나의 단일 데이터 집합에서 동등하게 이익을 얻을 수 있습니다. 에 대한 광범위한 연구 다양한 NLP 작업들은 도메인별 훈련 데이터를 사용하는 것을 보여주었습니다. 범용 모델과는 반대로 신경 모델의 성능을 향상시킨다. 안으로 이 작업, 우리는 사전 훈련된 큰 언어의 몇 번의 기능을 활용한다. IR 작업을 위한 합성 데이터 생성기 모델. 우리는 모델들이 미세 조정되었다는 것을 보여준다. 우리의 감독되지 않은 데이터 집합에서만 BM25와 같은 강력한 기준선을 능가한다. 최근 스스로 감독하는 밀도 높은 검색 방법을 제안했습니다 더 나아가 감독된 데이터와 합성 데이터 모두에서 미세 조정된 검색기는 더 나은 성과를 달성합니다. 감독된 데이터에서만 미세 조정된 모델보다 제로샷 전송. 코드, 모델, 및 데이터는 이 https URL 에서 확인할 수 있습니다.
Natural Language in Requirements Engineering for Structure Inference -- An Integrative Review
The automatic extraction of structure from text can be difficult for machines. Yet, the elicitation of this information can provide many benefits and opportunities for various applications. Benefits have also been identified for the area of Requirements Engineering. To evaluate what work has been done and is currently available, the paper at hand provides an integrative review regarding Natural Language Processing (NLP) tools for Requirements Engineering. This assessment was conducted to provide a foundation for future work as well as deduce insights from the stats quo. To conduct the review, the history of Requirements Engineering and NLP are described as well as an evaluation of over 136 NLP tools. To assess these tools, a set of criteria was defined. The results are that currently no open source approach exists that allows for the direct/primary extraction of information structure and even closed source solutions show limitations such as supervision or input limitations, which eliminates the possibility for fully automatic and universal application. As a results, the authors deduce that the current approaches are not applicable and a different methodology is necessary. An approach that allows for individual management of the algorithm, knowledge base, and text corpus is a possibility being pursued.
텍스트에서 구조의 자동 추출은 다음에 대해 어려울 수 있습니다. 기계들 그러나 이 정보의 도출은 많은 이점을 제공할 수 있다. 다양한 응용 기회를 제공합니다. 이점도 확인되었습니다. 요구사항 엔지니어링 영역에 대한. 어떤 작업이 수행되었는지 평가한다. 그리고 현재 이용가능하며, 그 논문은 통합적인 리뷰를 제공한다. 요구사항 엔지니어링을 위한 NLP(Natural Language Processing) 도구 관련. 이 평가는 향후 작업에 대한 토대를 제공하기 위해 실시되었습니다. 통계 현상으로부터 통찰력을 추론할 수 있습니다. 리뷰를 수행하기 위해, 다음의 역사 요구사항 엔지니어링 및 NLP는 다음과 같은 평가와 함께 설명된다. 136개의 NLP 도구. 이러한 도구를 평가하기 위해 일련의 기준이 정의되었다. 그 결과는 현재 다음을 허용하는 오픈 소스 접근법이 존재하지 않는다는 것이다. 정보 구조 및 폐쇄된 소스의 직접/일차 추출 솔루션은 감독 또는 입력 제한과 같은 제한을 보여줍니다. 완전 자동적이고 범용적인 응용의 가능성을 없앱니다. 로서 결과, 저자들은 현재의 접근방식이 적용되지 않는다고 추론한다. 다른 방법론이 필요하다. 개인을 위한 접근법 알고리즘, 기술 자료 및 텍스트 말뭉치의 관리가 가능합니다. 쫓기는
Distilling Hypernymy Relations from Language Models: On the Effectiveness of Zero-Shot Taxonomy Induction
In this paper, we analyze zero-shot taxonomy learning methods which are based on distilling knowledge from language models via prompting and sentence scoring. We show that, despite their simplicity, these methods outperform some supervised strategies and are competitive with the current state-of-the-art under adequate conditions. We also show that statistical and linguistic properties of prompts dictate downstream performance.
본 논문에서, 우리는 기초가 되는 제로샷 분류법 학습 방법을 분석한다. 질문 및 문장을 통해 언어 모델로부터 지식을 증류하는 것에 대하여 득점. 우리는 이러한 방법들이 단순함에도 불구하고 일부보다 성능이 뛰어나다는 것을 보여준다. 감독되는 전략과 현재의 최첨단 기술과 경쟁한다. 적절한 조건하에서 우리는 또한 통계학적이고 언어학적인 프롬프트의 속성은 다운스트림 성능을 지시합니다.
'paper-of-the-day' 카테고리의 다른 글
[2022-02-17] 오늘의 자연어처리 (0) | 2022.02.17 |
---|---|
[2022-02-16] 오늘의 자연어처리 (0) | 2022.02.16 |
[2022-02-14] 오늘의 자연어처리 (0) | 2022.02.14 |
[2022-02-11] 오늘의 자연어처리 (0) | 2022.02.11 |
[2022-02-10] 오늘의 자연어처리 (0) | 2022.02.10 |