Search

  • Home
  • AI Report 언어 모델 연구

AI Report 언어 모델 연구

Can AI be Accountable

“AI가 잘못 판단하면 누구 책임?”… 800년 전 마그나카르타가 제시한 해법

11월 4, 2025

미국 뉴햄프셔대학교(University of New Hampshire) 앤드류 쿤 교수가 발표한 논문에 따르면, AI의 힘이 빠르게 강해지는 지금 우리는 중대한 기로에 서 있다. AI가 우리 삶에…

Who Has The Final Say? Conformity Dynamics in ChatGPT's Selections

챗GPT, 8명이 반대하자 99.9% 의견 바꿔… AI도 ‘눈치’ 본다

11월 3, 2025

챗GPT가 객관적으로 판단하는 도구가 아니라 다른 사람들의 의견에 따라 자기 생각을 바꾸는 ‘눈치 보는 AI’라는 연구 결과가 나왔다. 독일 빌레펠트대학교 연구진은 GPT-4o를 대상으로 세…

Remote Labor Index: Measuring AI Automation of Remote Work

AI 자동화 공포, 과장됐다… 실제 업무 중 겨우 2.5%만 해내

11월 3, 2025

인공지능이 지식과 추론 벤치마크에서 빠르게 발전하고 있지만, 실제 경제적 가치를 창출하는 업무를 자동화하는 능력은 여전히 바닥 수준에 머물러 있다는 연구 결과가 나왔다. AI 안전…

Emergent Introspective Awareness in Large Language Models

AI, 입력된 글자와 ‘머릿속 생각’ 구별한다… 앤트로픽 “LLM, 자기 내부 상태 일부 인식”

10월 31, 2025

AI 개발사 앤트로픽(Anthropic)이 자사 AI 모델 ‘클로드(Claude)’가 자신의 내부 상태 일부를 제한적으로 인식할 수 있다는 연구 결과를 발표했다. 연구진은 AI의 뇌에 해당하는 부분에 특정…

SocializeChat: A GPT-Based AAC Tool Grounded in Personal Memories to Support Social Communication

“공원서 낚시했던 기억” AI가 대화로 만든다… 노년층을 위한 대화 보조 도구 등장

10월 28, 2025

중국 저장대학교 연구팀이 말하기 어려운 노인들의 과거 추억을 활용해 더 풍부한 대화를 나눌 수 있도록 돕는 인공지능 대화 보조 도구를 개발했다. 이 시스템은 사용자가…

Outraged AI: Large language models prioritise emotion over cost in fairness enforcement

“조금만 불공평해도 용납 못해”… AI, 도덕 판단에는 인간보다 더 감정적으로 판단한다

10월 28, 2025

중국 칭화대학교 심리인지과학과 연구팀이 AI의 감정 기반 의사결정을 분석한 결과, 대규모 언어모델(LLM)이 인간처럼 감정을 이용해 도덕적 판단을 내린다는 사실이 처음으로 입증됐다. 연구팀은 성인과 AI…

GPT-5, ‘기억상실증 걸린 천재’ 수준… MIT·스탠퍼드 연구진이 밝힌 AGI의 현주소

GPT-5, ‘기억상실증 걸린 천재’ 수준… MIT·스탠퍼드 연구진이 밝힌 AGI의 현주소

10월 27, 2025

AGI(범용 인공지능)가 정확히 무엇인지에 대한 명확한 정의가 없어, AI 기술이 얼마나 발전했는지 제대로 평가하기 어렵다는 문제가 있었다. 미국 AI 안전센터(Center for AI Safety), UC버클리,…

The Impact of Artificial Intelligence on Human Thought

당신의 뇌가 위험하다… AI 의존이 부르는 ‘사고의 획일화’

10월 24, 2025

챗GPT가 출시된 지 불과 2개월 만에 1억 명 이상의 사용자를 확보하며 역사상 가장 빠르게 성장한 애플리케이션이 된 이후, 인공지능은 우리 삶의 필수적인 동반자가 되었다.…

ROBOPSY PL[AI]: Using Role-Play to Investigate how LLMs Present Collective Memory

AI마다 다른 역사? 챗GPT와 클로드가 1936년 살인사건을 다르게 기억하는 충격적 이유

10월 22, 2025

대형언어모델(LLM)이 점차 정보 탐색의 주요 수단으로 자리 잡으면서, 이들이 역사적 사건을 어떻게 수집하고 해석하며 제시하는지가 중요한 문제로 떠오르고 있다. 오스트리아 빈 응용예술대학교 연구팀이 2025년…

Redundancy-as-Masking: Formalizing the Artificial Age Score (AAS) to Model Memory Aging in Generative AI

AI도 늙는다? 챗GPT의 건망증, 알고 보니 ‘디지털 노화’

10월 20, 2025

대화를 리셋하면 맥락을 잃어버리는 챗GPT(ChatGPT)의 현상이 사실은 인공지능의 ‘노화’일 수 있다는 연구 결과가 나왔다. 호주 빅토리아대학교(Victoria University)의 세이마 야만 카야디비(Seyma Yaman Kayadibi) 연구원은 대형…

Readers Prefer Outputs of AI Trained on Copyrighted Books over Expert Human Writers

노벨상 작가보다 AI가 쓴 소설을 더 좋아한다…충격적 연구 결과 공개

10월 20, 2025

인공지능이 저작권 있는 책들로 학습한 뒤 생성한 글을, 독자들이 전문 작가가 쓴 글보다 더 선호한다는 충격적인 연구 결과가 나왔다. 미국 스토니브룩대학교, 컬럼비아 로스쿨, 미시간대학교…

Antislop: A Comprehensive Framework for Identifying and Eliminating Repetitive Patterns in Language Models

AI 언어모델의 ‘말버릇’ 고치는 기술 나왔다

10월 20, 2025

AI가 글을 쓸 때마다 똑같은 표현을 반복하는 ‘말버릇’을 고칠 수 있는 기술이 개발됐다. 마치 사람이 “있잖아”, “그니까” 같은 말버릇을 가지듯, AI 언어모델도 특정 단어나…

"자살 언급 한 번이면 끝?" 부모-전문가, AI 챗봇 위험 판단 기준 정반대

“자살 언급 한 번이면 끝?” 부모-전문가, AI 챗봇 위험 판단 기준 정반대

10월 17, 2025

미국 청소년 72%가 사용하는 AI 동반자 플랫폼에서 자살 사건이 발생하면서, 안전장치 마련이 시급한 과제로 떠올랐다. 일리노이대학교 연구팀이 부모와 아동심리 전문가 26명을 대상으로 실제 청소년-AI…

수백만 명이 쓰는데 AI는 모른다... 2000개 언어의 '디지털 실종' 충격

수백만 명이 쓰는데 AI는 모른다… 2000개 언어의 ‘디지털 실종’ 충격

10월 15, 2025

대규모 언어 모델(LLM) 시대, 전 세계 7,613개 언어 중 약 2,000개 언어가 수백만 명의 화자를 보유하고 있음에도 AI 학습 데이터에서 사실상 사라진 것으로 나타났다.…

Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy (short paper)

“무례하게 물어봐야 정답률 높다”…챗GPT, 공손한 질문엔 오히려 정확도 떨어져

10월 15, 2025

최신 대규모 언어모델(LLM)이 무례한 표현의 프롬프트에서 더 높은 정확도를 보인다는 연구 결과가 나왔다. 펜실베니아주립대학교 연구팀이 챗GPT4o를 대상으로 진행한 실험에서 ‘매우 무례한’ 프롬프트의 정확도가 84.8%로,…

2025 AI 10대 핵심 트렌드

딜로이트가 분석한 2025년 AI 10대 핵심 트렌드

10월 14, 2025

글로벌 컨설팅 기업 딜로이트가 2025년 인공지능 산업을 이끌 10대 핵심 트렌드를 발표했다. 이번 리포트는 AI 기술의 진화 흐름과 실제 도입 사례를 분석하며, 물리적 AI부터…

Scale-free Characteristics of Multilingual Legal Texts

AI는 법조문 생성 못 한다?… 같은 말 반복하는 법률 언어의 특성 때문

9월 29, 2025

일본 와세다대학교 연구팀이 법률 문서와 일반 글, 그리고 AI가 쓴 글의 언어 특징을 비교했다. 해당 논문에 따르면, 이번 연구는 프랑스어, 영어, 독일어 등 여러…

Anecdoctoring: Automated Red-Teaming Across Language and Place

AI 안전장치 무력화 가능? 문화·언어별 가짜뉴스 공격에 취약

9월 29, 2025

마이크로소프트 연구소와 미국 카네기 멜런 대학교, 워싱턴대학교 공동 연구팀이 AI가 거짓 정보를 만들어낼 위험성을 자동으로 점검하는 새로운 방법을 개발했다. 해당 연구 논문에 따르면, ‘아넥닥터링’이라…

Gödel Test: Can Large Language Models Solve Easy Conjectures?

GPT-5, 수학 추측 5개 중 3개 ‘거의’ 성공… 여러 논문 통합 필요한 문제는 실패

9월 29, 2025

이스라엘 하이파 대학교의 모란 펠드먼 교수와 시스코 파운데이션 AI의 아민 카르바시 연구원은 대규모 언어 모델이 새롭고 간단한 수학 추측을 증명할 수 있는지 평가하는 ‘괴델…

GDPVAL: EVALUATING AI MODEL PERFORMANCE ON REAL-WORLD ECONOMICALLY VALUABLE TASKS

AI가 드디어 인간 전문가 턱밑까지… GPT-5, 실무 과제서 38.8% 승률 달성

9월 26, 2025

오픈AI가 발표한 새로운 연구에 따르면, 최신 AI 모델들이 실제 경제적 가치를 창출하는 업무에서 인간 전문가에 근접한 성능을 보이는 것으로 나타났다. 이 연구는 미국 GDP의…

Measuring AI "Slop" in Text

메타, AI 생성 저품질 콘텐츠 ‘슬롭’ 품질 측정-분류 체계 개발

9월 26, 2025

‘슬롭(Slop)’이 2024년 옥스퍼드 사전 올해의 단어 후보에 선정되며 사용량이 332% 급증한 가운데, 미국 노스이스턴대학교와 메타 AI가 공동으로 실시한 새로운 연구에서 AI가 생성하는 저품질 텍스트인…

MPCG: Multi-Round Persona-Conditioned Generation for Misinformation

AI가 만든 정치 성향별 가짜 뉴스, 기존 탐지 프로그램들 절반 수준으로 성능 저하시켜

9월 25, 2025

싱가포르 국립대학교 컴퓨터과학과 연구팀이 인공지능을 이용해 정치적 성향에 따라 변화하는 가짜 뉴스를 만드는 새로운 방법을 개발했다. 이 연구는 현재 사용되는 가짜 뉴스 탐지 프로그램들이…

Mouse vs. AI: A Neuroethological Benchmark for Visual Robustness and Neural Alignment

“AI가 쥐만 못해?”… 쥐의 뇌 활동 데이터로 AI 시각 능력 평가하는 새 벤치마크 등장

9월 24, 2025

자율주행차가 안개 낀 도로에서 멈춰 서고, 드론이 흐린 날씨에 추락하는 이유가 밝혀졌다. 현재 AI 기술의 가장 큰 약점인 ‘시각적 강건성’ 문제를 해결하기 위해 캘리포니아대학교…

Understanding the Process of Human-AI Value Alignment

AI가 인간 가치관 바꿀 수도… 영국 대학 연구진 “지속 관리 필요”

9월 24, 2025

영국 바스 대학교 연구진이 인공지능과 인간이 같은 가치관을 갖도록 하는 방법을 체계적으로 분석한 연구 결과를 발표했다. 연구팀은 172편의 관련 논문을 분석해 AI와 인간의 ‘가치…

JU-NLP at Touché: Covert Advertisement in Conversational AI-Generation and Detection Strategies

AI 답변 속 광고 심는 기술 vs 탐지 기술… AI 챗봇 답변 속 숨은 광고, 알아차릴 수 있을까?

9월 24, 2025

완벽한 정확도로 숨은 광고를 만들어내는 생성 시스템 연구 논문에 따르면, 연구팀은 사용자 맥락과 쿼리 의도를 활용해 상황에 맞는 광고를 생성하는 새로운 시스템을 개발했다. 이…

Catch Me If You Can? Not Yet: LLMs Still Struggle to Imitate the Implicit Writing Styles of Everyday Authors

예시 10개 줘도 소용없다… AI가 일반인 문체 흉내내지 못하는 진짜 이유

9월 23, 2025

대형 언어모델(LLM)들이 개인 맞춤형 글쓰기 도구로 널리 활용되면서, 과연 AI가 몇 개의 예시만으로도 개인의 고유한 글쓰기 스타일을 완벽하게 모방할 수 있는지에 대한 의문이 제기되고…

Uncertainty in Authorship: Why Perfect AI Detection Is Mathematically Impossible

AI 생성 글, 지금보다 수준 높아지면 구분 불가능… 수학적 증명 나왔다

9월 19, 2025

스페인 발렌시아 폴리테크닉 대학교 연구원이 놀라운 사실을 밝혀냈다. 챗GPT나 클로드 같은 AI가 쓴 글을 완벽하게 가려내는 것이 수학적으로 불가능하다는 것이다. 연구진은 물리학의 유명한 법칙을…

논문에 AI 쓰면 손해? 득? 23만 편 분석해봤더니… ‘활용 많은 동양 vs 인용 혜택 큰 서양’

논문에 AI 쓰면 손해? 득? 23만 편 분석해 봤더니… ‘활용 많은 동양 vs 인용 혜택 큰 서양’

9월 16, 2025

챗GPT 출시 이후 전 세계 컴퓨터 과학 분야 연구자들이 AI 도구를 활용한 논문 작성에 적극적으 나서고 있다. 뉴욕대학교 아부다비 캠퍼스 연구진이 23만 편 이상의…

Proactive AI Adoption can be Threatening: When Help Backfires

“요청도 안 했는데”… 적극적인 AI일수록 사용자가 외면하는 이유

9월 15, 2025

AI가 직장에서 빠르게 퍼지고 있지만, AI가 사용자가 요청하지도 않았는데 먼저 나서서 도와주려 하면 오히려 사람들이 거부한다는 연구 결과가 나왔다. 이스라엘 테크니온 대학교 연구팀은 AI가…

Explaining the Reputational Risks of AI-Mediated Communication: Messages Labeled as AI-Assisted Are Viewed as Less Diagnostic of the Sender's Moral Character

챗GPT로 쓴 글로 사과하면 진정성 의심받는다? 카네기 멜런대 충격 연구 결과

9월 12, 2025

인공지능(AI)이 작성에 도움을 준 메시지를 받으면 우리는 보내는 사람을 어떻게 생각하게 될까. 카네기 멜런대학교 연구진이 399명을 대상으로 수행한 연구에 따르면, ‘AI의 도움으로 작성되었습니다’라는 표시가…

AI Report 언어 모델 연구 - 36 중 4 번째 페이지 - AI매터스