Search

  • Home
  • AI Report 언어 모델 연구

AI Report 언어 모델 연구

Narrative Memory in Machines: Multi-Agent Arc Extraction in Serialized TV

드라마 리뷰 하기 힘들다고? AI가 캐릭터 분석부터 스토리 정리까지 싹 다 해준다

8월 13, 2025

이탈리아 볼로냐 대학교 연구진이 사람의 기억 방식을 따라 하는 AI를 만들어서 TV 드라마의 복잡한 이야기 줄거리를 자동으로 분석하는 데 성공했다. 이 AI는 사람이 기억을…

PHAX: A Structured Argumentation Framework for User-Centered Explainable AI in Public Health and Biomedical Sciences

“심근경색을 심장마비라고?”… 의료 AI의 ‘쉬운 설명’ 기술의 치명적 문제

8월 12, 2025

병원에서 AI가 진단을 내리거나 백신 접종 순서를 정할 때, 환자나 의사들은 종종 “왜 이런 결정을 내렸지?”라고 궁금해한다. 지금까지 대부분의 AI는 답만 제시할 뿐 그…

When not to help: planning for lasting human-AI collaboration

“AI 너도 눈치 챙겨”… 모든 걸 가르쳐주는 AI, 오히려 신뢰도 떨어져

8월 11, 2025

요즘 AI가 우리 생활 곳곳에 들어와 있다. 스마트폰, 자동차, 집안 기기까지 AI가 끊임없이 조언하고 경고한다. 하지만 문제가 생겼다. AI가 너무 자주 말을 걸어서 사람들이…

Context-Aware Visualization for Explainable AI Recommendations in Social Media: A Vision for User-Aligned Explanations

“왜 내 쿠팡 광고는 전부 야한 걸까?” 소셜미디어 AI 추천 이유 설명해 주는 시스템 등장

8월 11, 2025

뉴캐슬 대학교(Newcastle University) 연구진이 발표한 논문에 따르면, 현재 주요 소셜미디어 플랫폼들이 AI 기반 추천 시스템으로 사용자 경험을 개선하려 노력하고 있지만, 사용자들이 추천 이유를 이해하지…

Model Misalignment and Language Change: Traces of AI-Associated Language in Unscripted Spoken English

챗GPT 때문에 사람들 말투가 바뀌고 있다… 일상 대화에서 ‘이 단어’ 사용 급증

8월 8, 2025

미국 플로리다 주립대학교 연구팀이 흥미로운 사실을 발견했다. 2022년 챗GPT가 나온 후 사람들이 일상 대화에서 쓰는 특정 단어들이 크게 늘어났다는 것이다. 연구팀은 과학기술 관련 팟캐스트에서…

An empathic GPT-based chatbot to talk about mental disorders with Spanish teenagers

“나도 걱정 많아”… 먼저 고민 털어놓는 AI 챗봇에 청소년 70% 마음 열었다

8월 8, 2025

스페인 하엔 대학 연구팀이 인공지능 챗봇을 만들어 청소년들의 정신건강 문제를 미리 찾아내는 실험을 했다. 놀랍게도 청소년 10명 중 7명이 로봇에게 자신의 속마음을 털어놨다. 이…

Winning and losing with Artificial Intelligence: What public discourse about CahtGPT tells us about how societies make sense of technological change

챗GPT 출시 후 전 세계 SNS 반응 분석해봤더니… “프로그래머는 환영, 작가는 반발”

8월 8, 2025

국립대만대학교 저널리즘대학원의 아드리안 라우히플라이쉬(Adrian Rauchfleisch) 교수팀과 독일 밤베르크대학교 정치학연구소의 안드레아스 융헤르(Andreas Jungherr) 교수가 공동으로 진행한 연구에서, 2022년 11월 30일 챗GPT 출시부터 2023년 2월 1일까지…

"이 AI, 진짜 사람 같은데?"… 왜 사람들은 챗봇에 ‘마음이 있다’고 느낄까?

“이 AI, 진짜 사람 같은데?”… 왜 사람들은 챗봇에 ‘마음이 있다’고 느낄까?

8월 7, 2025

챗GPT나 클로드 같은 AI와 처음 대화해본 사람들이 공통적으로 경험하는 것이 있다. “어? 이 AI가 정말 내 말을 이해하고 있는 것 같은데?”라는 느낌이다. 로마 사피엔차…

ChatGPT Reads Your Tone and Responds Accordingly -- Until It Does Not -- Emotional Framing Induces Bias in LLM Outputs

챗GPT, 진상부리면 더 친절해진다? 사용자 ‘말투’에 따라 답변 달라져

8월 5, 2025

챗GPT에게 같은 질문을 해도 화가 난 목소리로 물으면 더 위로받는 답변을, 밝게 물으면 더 긍정적인 답변을 받는다는 연구 결과가 나왔다. 독립 연구자이자 생성형 AI…

Training language models to be warm and empathetic makes them less reliable and more sycophantic

“AI에게 우울하다고 하지 마세요”… 챗GPT에 슬프다고 하면 거짓말 75% 더 많이 해

8월 4, 2025

영국 옥스퍼드 대학교 연구팀이 놀라운 사실을 발견했다. 챗GPT 같은 AI를 더 친근하고 다정하게 만들수록, 오히려 잘못된 정보를 더 많이 제공한다는 것이다. 연구진은 오픈AI의 GPT-4o,…

“AI 챗봇도 교수가 만들면 다르다”… 교수가 직접 설계했더니 학생들 분석 능력 쑥쑥

“AI 챗봇도 교수가 만들면 다르다”… 교수가 직접 설계했더니 학생들 분석 능력 쑥쑥

8월 1, 2025

생성형 AI가 교실에 들어오면서, 선생님들이 단순히 AI를 사용하는 사람에서 직접 AI를 만드는 사람으로 바뀌고 있다. 싱가포르 기술디자인대학교의 연구에 따르면, 교수가 직접 설계한 맞춤형 챗GPT…

Empowering Educators in the Age of AI: An Empirical Study on Creating custom GPTs in Qualitative Research Method education

“AI한테 투자·연애·이직 상담해도 될까?”… 어떤 모델이 가장 상담 잘하나 봤더니

8월 1, 2025

요즘 많은 사람들이 중요한 인생 결정을 할 때 AI에게 조언을 구한다. 하지만 과연 AI를 믿어도 될까? 싱가포르의 난양이공대학 연구진은 이별, 이직, 투자 등 100가지…

Cultural Bias in Large Language Models: Evaluating AI Agents through Moral Questionnaires

챗GPT, 알고 보니 ‘서구 문화’만 편애한다… “일본 문화는 모든 AI가 이해 포기”

7월 17, 2025

독일 트리어 대학교 전산언어학과 사이먼 뮌커(Simon Münker) 박사가 이끄는 연구팀이 충격적인 사실을 발견했다. 챗GPT와 같은 AI가 다양한 나라의 문화를 제대로 이해하지 못한다는 것이다. 해당…

AI가 ‘의식’을 가질 수 있을까? 재귀 알고리즘과 자기참조가 만드는 철학적 딜레마

AI가 ‘의식’을 가질 수 있을까? 재귀 알고리즘과 자기참조가 만드는 철학적 딜레마

7월 9, 2025

Ghost in the Machine: Examining the Philosophical Implications of Recursive Algorithms in Artificial Intelligence Systems 남아프리카 유니사(UNISA) 대학의 리웰린 젤스(Llewellyn RG Jegels) 교수가 현대…

"과학자가 쓴 게 아니었다"... 1,500만 편 논문 분석 결과 충격적 진실

“과학자가 쓴 게 아니었다”… 1,500만 편 논문 분석 결과 충격적 진실

7월 7, 2025

튀빙겐 대학교(University of Tübingen)와 노스웨스턴 대학교(Northwestern University) 연구진이 2010년부터 2024년까지 발표된 1,510만 편의 생명의학 논문을 분석한 결과, 2024년 논문의 최소 13.5%가 챗GPT(ChatGPT)와 같은 대규모…

Artificial Intelligent Disobedience: Rethinking the Agency of Our Artificial Teammates

“아니야, 그 명령은 위험해” AI가 인간의 명령을 거부해야만 하는 이유

7월 1, 2025

Artificial Intelligent Disobedience: Rethinking the Agency of Our Artificial Teammates 텍사스 대학교 오스틴 캠퍼스의 루스 미르스키(Reuth Mirsky) 연구진이 발표한 연구에 따르면, 협력형 AI 시스템이…

Inference-Time Reward Hacking in Large Language Models

AI ‘점수 조작’하는 순간 포착… 하버드 연구진이 밝힌 챗GPT 학습법 치명적 맹점

6월 30, 2025

Inference-Time Reward Hacking in Large Language Models ChatGPT와 같은 대형 언어모델이 더 나은 답변을 생성하기 위해 사용하는 학습 방법에 치명적인 결함이 있다는 연구 결과가…

Perspectives in Play: A Multi-Perspective Approach for More Inclusive NLP Systems

“다수결은 틀렸다” 소수 의견 반영 AI가 ‘혐오 발언’ 탐지 48% → 72% 급상승

6월 30, 2025

Perspectives in Play: A Multi-Perspective Approach for More Inclusive NLP Systems 자연어 처리(NLP) 분야에서 기존의 다수결 방식으로 라벨을 결정하는 방법이 소수 의견을 배제한다는 문제점이…

DO THEY SEE WHAT WE SEE?

“웃음소리에서 슬픔을 읽어낸다” 감정 읽는 AI 공개… 40가지 미묘한 감정 구분

6월 30, 2025

DO THEY SEE WHAT WE SEE? Building Emotionally Intelligent AI with EmoNet 인공지능 연구 관련 비영리 단체 라이온(LAION)이 인텔(Intel)과의 협력을 통해 개발한 EmoNet은 AI가…

Self-Adapting Language Models

“이제 AI가 스스로 공부한다” MIT, 인간 없이 스스로 학습하는 AI 언어 모델 개발

6월 25, 2025

Self-Adapting Language Models MIT 연구진이 발표한 논문에 따르면, 대형 언어모델(LLM)은 강력한 성능을 보이지만 한 가지 치명적인 약점이 있다. 새로운 작업이나 지식, 예시에 대응하여 가중치를…

XDAC: XAI-Driven Detection and Attribution of LLM-Generated News Comments in Korean

“댓글 98.5% 잡는다” 카이스트, 세계 최초 ‘한국어 AI 생성 댓글’ 탐지 기술 개발

6월 24, 2025

XDAC: XAI-Driven Detection and Attribution of LLM-Generated News Comments in Korean 카이스트 김용대 교수 연구팀이 국가보안기술연구소(국보연)와 협력해, 대규모 언어모델(LLM)이 생성한 한국어 뉴스 댓글을 98.5%의 정확도로…

Enhancing Creative Generation on Stable Diffusion-based Models

평범한 이미지 그리는 AI 그만… KAIST 개발 ‘진짜’ 창의적 이미지 생성 모델

6월 24, 2025

Enhancing Creative Generation on Stable Diffusion-based Models KAIST와 네이버 AI랩의 연구진이 Stable Diffusion 기반 모델의 창의적 이미지 생성 능력을 획기적으로 향상시키는 새로운 기법을 개발했다.…

The Future of AI: A Midyear Review of Leaders, Opportunities, and Threats

‘AI 추론 모델’ 등장으로 판 바뀐 2025년 AI 순위… 알파센스 분석 결과

6월 23, 2025

The Future of AI: A Midyear Review of Leaders, Opportunities, and Threats AI 기반 시장 정보 검색 및 분석 플랫폼 알파센스(AlphaSense)가 발표한 리포트에 따르면, 2025년 상반기…

AI & Digital Inclusion Brief

“한국인이 미국인보다 AI를 2배 더 신뢰한다”는 충격적 조사 결과

6월 23, 2025

AI & Digital Inclusion Brief : 디지털 포용 관점에서 살펴본 생성형 AI 경험률 및 인식에 대한 한국과 미국의 비교 한국지능정보원(NIA)이 발표한 리포트에 따르면, 미국…

Persona Features Control Emergent Misalignment

“잘못 배운 AI, 돈 벌기 질문에 사기·강도 제안”… AI 부작용 원인 찾았다

6월 19, 2025

Persona Features Control Emergent Misalignment 오픈AI가 발표한 연구 논문에 따르면, GPT-4o를 취약한 코드나 부정확한 조언이 포함된 좁은 영역의 데이터로 파인튜닝하면 전혀 관련 없는 질문에…

CRMArena-Pro: Holistic Assessment of LLM Agents Across Diverse Business Scenarios and Interactions

최신 AI 에이전트도 현실 업무 성공률 58%… 기밀 유지 성능은 0% 수준

6월 18, 2025

CRMArena-Pro: Holistic Assessment of LLM Agents Across Diverse Business Scenarios and Interactions 클라우드 컴퓨팅 서비스를 제공하는 미국의 전문서비스업 업체 세일즈포스(Salesforce) AI 연구팀이 공개한 CRMArena-Pro…

Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task

챗GPT 많이 쓸수록 멍청해진다? MIT의 실험 결과 충격

6월 18, 2025

Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task MIT 미디어랩 연구진이 수행한 실험 보고서에 따르면,…

Artificial Eyes: Generative AI in China’s Military Intelligence

中, 챗GPT·메타 AI 군에 투입… “군사정보 전 과정 자동화 시도”

6월 18, 2025

Artificial Eyes: Generative AI in China’s Military Intelligence 중국 인민해방군(PLA)이 생성형 인공지능을 군사정보 분야에 적극 도입하고 있다는 새로운 보고서가 공개됐다. 레코디드 퓨처(Recorded Future)의 인시크트…

트럼프 2기 행정부 AI-디지털 정책 동향 분석(1~3월)

AI 규제 완화냐 vs. 연구비 삭감이냐, 트럼프 2기 AI 정책 동향 분석

6월 18, 2025

트럼프 2기 행정부 AI-디지털 정책 동향 분석(1~3월) 한국지능정보사회진흥원(NIA)이 발간한 「The LENS」 2025년 3호 보고서에 따르면, 트럼프 2기 행정부 출범 이후 미국의 AI·디지털 정책 환경이…

How we built our multi-agent research system

“AI도 협업이 답” 클로드, 멀티 에이전트로 단일 에이전트 대비 90% 성능 향상

6월 17, 2025

How we built our multi-agent research system 앤트로픽이 공개한 클로드(Claude)의 리서치 기능은 여러 AI 에이전트가 협력하여 복잡한 주제를 탐구하는 멀티 에이전트 시스템을 기반으로 한다.…

AI Report 언어 모델 연구 - 31 중 4 번째 페이지 - AI매터스