2021. 12. 29. 17:40ㆍpaper-of-the-day
Polite Emotional Dialogue Acts for Conversational Analysis in Dialy Dialog Data
Many socio-linguistic cues are used in the conversational analysis, such as emotion, sentiment, and dialogue acts. One of the fundamental social cues is politeness, which linguistically possesses properties useful in conversational analysis. This short article presents some of the brief findings of polite emotional dialogue acts, where we can correlate the relational bonds between these socio-linguistics cues. We found that the utterances with emotion classes Anger and Disgust are more likely to be impolite while Happiness and Sadness to be polite. Similar phenomenon occurs with dialogue acts, Inform and Commissive contain many polite utterances than Question and Directive. Finally, we will conclude on the future work of these findings.
다음과 같은 많은 사회 언어적 단서들이 대화 분석에 사용된다. 감정, 감정, 대화 행위. 기본적인 사회적 단서 중 하나는 언어학적으로 대화에 유용한 특성을 가진 예의. 분석. 이 짧은 기사는 예의 바름의 몇 가지 간단한 발견을 제시한다. 감정적 대화 행위들, 우리가 사이의 관계적 유대 관계를 상관시킬 수 있는 이런 사회-통계학적 신호들을요 우린 감정 분류가 있는 말들이 분노와 혐오는 무례할 가능성이 더 높은 반면 행복과 슬픔은 공손하게 하세요. 유사한 현상이 대화 행위, 정보 제공 및 커미티브에서도 발생한다. 질문이나 지시보다 더 공손한 말들을 많이 담고 있다. 드디어 저희가. 이 발견의 향후 연구에 대해 결론을 짓는다.
An Interdisciplinary Approach for the Automated Detection and Visualization of Media Bias in News Articles
Media coverage has a substantial effect on the public perception of events. Nevertheless, media outlets are often biased. One way to bias news articles is by altering the word choice. The automatic identification of bias by word choice is challenging, primarily due to the lack of gold-standard data sets and high context dependencies. In this research project, I aim to devise data sets and methods to identify media bias. To achieve this, I plan to research methods using natural language processing and deep learning while employing models and using analysis concepts from psychology and linguistics. The first results indicate the effectiveness of an interdisciplinary research approach. My vision is to devise a system that helps news readers become aware of media coverage differences caused by bias. So far, my best performing BERT-based model is pre-trained on a larger corpus consisting of distant labels, indicating that distant supervision has the potential to become a solution for the difficult task of bias detection.
언론 보도는 사건에 대한 대중의 인식에 상당한 영향을 미친다. 그럼에도 불구하고, 언론 매체들은 종종 편파적이다. 뉴스 기사를 편향시키는 한 가지 방법은 선택이라는 단어를 바꿔서 말이야 단어별 편향 자동 식별 주로 골드 표준 데이터 세트가 부족하고 데이터 표준이 없기 때문에 선택하기가 어렵습니다. 컨텍스트 종속성이 높습니다. 이 연구 프로젝트에서 나는 데이터 세트를 고안하는 것을 목표로 한다. 미디어 편향을 식별하는 방법. 이를 위해 나는 방법을 연구할 계획이다. 모델을 사용하는 동안 자연어 처리와 딥 러닝을 사용합니다. 심리학과 언어학의 분석 개념을 이용합니다. 첫 번째 결과 학제간 연구 접근법의 효과를 나타낸다. 나의 비전 뉴스 독자들이 미디어 보도에 대해 알 수 있도록 돕는 시스템을 고안하는 것이다. 편향으로 인한 차이. 지금까지 BERT 기반 모델 중 성능이 가장 뛰어납니다. 멀리 있는 라벨로 구성된 더 큰 말뭉치에 사전 훈련되어, 다음을 나타낸다. 원거리 감독은 어려운 사람들을 위한 해결책이 될 수 있는 잠재력을 가지고 있다. 바이어스 감지 작업.
Understanding RoBERTa's Mood: The Role of Contextual-Embeddings as User-Representations for Depression Prediction
Many works in natural language processing have shown connections between a person's personal discourse and their personality, demographics, and mental health states. However, many of the machine learning models that predict such human traits have yet to fully consider the role of pre-trained language models and contextual embeddings. Using a person's degree of depression as a case study, we do an empirical analysis on which off-the-shelf language model, individual layers, and combinations of layers seem most promising when applied to human-level NLP tasks. Notably, despite the standard in past work of suggesting use of either the second-to-last or the last 4 layers, we find layer 19 (sixth-to last) is the most ideal by itself, while when using multiple layers, distributing them across the second half(i.e. Layers 12+) of the 24 layers is best.
자연어 처리에서 많은 작업들은 a 사이의 연결을 보여주었습니다. 개인의 담화, 성격, 인구 통계 및 정신 건강 상태 그러나, 그러한 것을 예측하는 많은 기계 학습 모델들은 인간의 특성은 아직 사전 훈련된 언어 모델의 역할을 완전히 고려하지 않았다. 상황별 임베딩이 가능합니다. 사람의 우울증 정도를 예로 들 수 있다. 연구, 우리는 어떤 기성 언어 모델에 대한 경험적 분석을 한다. 개별 레이어, 그리고 레이어의 조합은 적용될 때 가장 유망해 보인다. 인간 수준의 NLP 작업으로. 특히, 과거의 작업에서의 표준에도 불구하고 두 번째에서 마지막까지 또는 마지막 4개의 레이어를 사용할 것을 제안하면서, 우리는 레이어를 찾는다. 19(마지막까지)는 그 자체로 가장 이상적인 반면, 다중을 사용할 때는 레이어, 24개의 후반부(레이어 12+)에 걸쳐 레이어 배포 레이어가 최고입니다.
'paper-of-the-day' 카테고리의 다른 글
[2022-01-02] 오늘의 자연어처리 (0) | 2022.01.02 |
---|---|
[2021-12-30] 오늘의 자연어처리 (0) | 2021.12.30 |
[2021-12-28] 오늘의 자연어처리 (0) | 2021.12.28 |
[2021-12-27] 오늘의 자연어처리 (0) | 2021.12.27 |
[2021-12-24] 오늘의 자연어처리 (0) | 2021.12.24 |