Search

  • Home
  • AI Report 언어 모델 연구

AI Report 언어 모델 연구

The Biased Samaritan: LLM biases in Perceived Kindness

“10대는 이기적, 노인은 친절?” AI 모델 10개의 나이·성별·인종 편견 분석

6월 17, 2025

The Biased Samaritan: LLM biases in Perceived Kindness 대형 언어모델(Large Language Models, LLMs)이 다양한 분야에서 널리 활용되면서, 이들 모델이 가진 편향성에 대한 우려가 커지고…

Enter: Graduated Realism: A Pedagogical Framework for AI-Powered Avatars in Virtual Reality Teacher Training

‘금쪽이’ 연기하는 AI 챗봇 등장… 신입 교사 훈련용 VR 교실 개발한다

6월 17, 2025

Enter: Graduated Realism: A Pedagogical Framework for AI-Powered Avatars in Virtual Reality Teacher Training 가상현실(VR) 기반 교사 훈련 시뮬레이터가 교육계의 주목을 받고 있다. 초기…

LLM 유해성 공격 전략에 대한 실증적 분석

복잡한 해킹보다 ‘안녕하세요’가 더 위험? AI 공격 성공률 1위는 의외의 방법

6월 17, 2025

LLM 유해성 공격 전략에 대한 실증적 분석 오픈AI의 챗GPT와 앤트로픽의 클로드 등 대규모 언어 모델(Large Language Models, LLMs)의 활용이 급격히 확대되면서, 이들 모델의 안전성에…

Large language models without grounding recover non-sensorimotor but not sensorimotor features of human concepts

“감정은 이해·촉각과 후각은 이해 못해” LLM의 감각에 대한 연구 결과 공개

6월 16, 2025

Large language models without grounding recover non-sensorimotor but not sensorimotor features of human concepts GPT-4와 제미나이(Gemini) 같은 거대언어모델(LLM)들이 감각-운동 경험 없이도 감정이나 추상적 개념에서는…

Simulacrum of Stories: Examining Large Language Models as Qualitative Research Participants

AI에게 인터뷰 시켰더니 대상 희화화… 질적연구에서 드러난 AI의 결함

6월 13, 2025

Simulacrum of Stories: Examining Large Language Models as Qualitative Research Participants 카네기 멜론 대학교(Carnegie Mellon University) 연구진이 발표한 연구 논문에 따르면, 대형언어모델(LLM)을 인간 참여자…

Generative AI in education: Educator and expert views

챗GPT로 숙제하는 학생 vs AI로 수업하는 교사, 교육의 미래는?

6월 12, 2025

Generative AI in education: Educator and expert views 영국 교사 42%, 4월 17%에서 7개월 만에 2.5배 급증 영국 교육부(Department for Education)와 오픈 이노베이션 팀(Open…

The Hallucination Tax of Reinforcement Finetuning

강화학습으로 똑똑해진 AI의 근자감… “모르겠다” 못하고 자신만만하게 틀린다

6월 11, 2025

The Hallucination Tax of Reinforcement Finetuning OpenAI o1처럼 똑똑해진 AI의 치명적 약점 발견 강화학습 파인튜닝(Reinforcement Finetuning, RFT)이 대형언어모델(LLM)의 수학 추론 능력을 크게 향상시키지만, 동시에…

Efficiency and Quality of Generative AI–Assisted Radiograph Reporting

의료 영상 판독 AI, 실제 병원서 첫 검증… “의사 판독시간 29초 단축시켰다”

6월 11, 2025

Efficiency and Quality of Generative AI–Assisted Radiograph Reporting 23,960건 분석해 29초 단축 효과 입증… 실제 병원서 첫 검증 노스웨스턴 의대 연구팀이 생성형 인공지능(Generative AI)…

Windows - spring/summer 2025

AI가 18세기 노예 문서 1,500p 해독… 美 대학도서관의 AI 활용법

6월 11, 2025

Windows – spring/summer 2025 생성형 AI, 도서관 서비스의 새로운 전환점으로 부상 노스캐롤라이나대학교(University of North Carolina at Chapel Hill)에서 발간한 매거진에 따르면, 대학의 도서관이 생성형…

AI in the Screen Sector: Perspectives and Paths Forward

英 영화 협회 “AI 훈련에 13만 개 대본 무단 학습돼”… 엘튼 존 “그건 도둑질”

6월 10, 2025

AI in the Screen Sector: Perspectives and Paths Forward 영국의 대표적인 영화 및 텔레비전 관련 문화 자선 기관인 BFI(British Film Institute)이 공개한 리포트에 따르면,영국의…

The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity

AI의 ‘생각하는 척’ 들통났다… 애플 “AI, 복잡해지면 오히려 덜 생각해”

6월 10, 2025

The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity 최신 AI 추론 모델들, 복잡한 문제에서…

Artificial Intelligence and the Labor Market

“AI가 내 일자리를 뺏을까?” 13년간 추적한 결과 고소득일수록 위험

6월 10, 2025

Artificial Intelligence and the Labor Market 미국의 대표적인 비영리 민간 경제 연구기관인 전미경제연구소(National Bureau of Economic Research, NBER)가 인공지능(AI) 기술의 발전이 노동시장에 미치는 영향을…

AI 학습데이터 저작권 관련 각국 정책 동향 및 시사점

“AI가 내 작품 무단학습?” 전 세계가 고민하는 저작권 딜레마, 영국이 내놓은 해답은

6월 9, 2025

AI 학습데이터 저작권 관련 각국 정책 동향 및 시사점 영국 정부가 인공지능(AI) 학습데이터의 저작권 문제 해결을 위해 대규모 공공협의를 진행했다. 2024년 12월부터 2025년 2월까지…

Understanding Gender Bias in AI-Generated Product Descriptions

“여성은 곡선미, 남성은 편안함” AI 상품소개서 속 숨겨진 차별

6월 9, 2025

Understanding Gender Bias in AI-Generated Product Descriptions “사이즈4는 대부분에게 완벽” – 의류 설명 14%에서 발견된 체형 배제 언어 대형 언어 모델(LLM)이 이커머스 분야에서 상품…

"We need to avail ourselves of GenAI to enhance knowledge distribution": Empowering Older Adults through GenAI Literacy

“합성된 손자 목소리로 사기당할 뻔” 노인층 AI 교육을 위한 ‘리티’ 챗봇 등장

6월 9, 2025

“We need to avail ourselves of GenAI to enhance knowledge distribution”: Empowering Older Adults through GenAI Literacy 2050년까지 15억 명 시대, 노인층 AI 사기…

Human Authenticity and Flourishing in an AI-Driven World: Edmund's Journey and the Call for Mindfulness

“당신의 기억과 인간관계는 조작되었다” AI가 일상이 된 2035년에 벌어질 일

6월 5, 2025

Human Authenticity and Flourishing in an AI-Driven World: Edmund’s Journey and the Call for Mindfulness AI가 만든 가짜 현실 속에서 살아가는 인간들 독일의 독립…

Model Already Knows the Best Noise: Bayesian Active Noise Selection via Attention in Video Diffusion Model

AI가 최고의 ‘노이즈’를 찾아낸다… 삼성, 비디오 품질 높이는 ‘ANSE’ 기술 공개

6월 4, 2025

Model Already Knows the Best Noise: Bayesian Active Noise Selection via Attention in Video Diffusion Model 시간은 조금 더 걸리지만 비디오 품질은 확실히 좋아진다…

OECD가 제시한 AI 능력 측정 새 기준, 정책 결정을 위한 종합 프레임워크 공개

OECD가 제시한 AI 능력 측정 새 기준, 정책 결정을 위한 종합 프레임워크 공개

6월 4, 2025

Introducing the OECD AI Capability Indicators 5년 연구 끝에 탄생한 AI 능력 평가의 글로벌 표준 경제협력개발기구(OECD)가 인공지능(AI) 능력을 체계적으로 측정할 수 있는 종합 프레임워크를…

QwenLong-L1: Towards Long-Context Large Reasoning Models with Reinforcement Learning

알리바바, 12만 토큰 고맥락 거대 문서도 척척 이해하는 AI ‘큐원롱-L1’ 공개… “오픈AI o3-mini 성능 뛰어넘어”

6월 4, 2025

QWENLONG-L1: Towards Long-Context Large Reasoning Models with Reinforcement Learning 기존 AI 모델들이 긴 문서에서 겪던 학습 효율성 저하와 불안정성 문제 알리바바 통이랩(Tongyi Lab)이 강화학습을…

Don't Overthink it. Preferring Shorter Thinking Chains for Improved LLM Reasoning

메타, 기존 통념 뒤집는 연구 결과 공개… “추론 시간 짧으면 LLM 정확도 34.5% 향상”

6월 2, 2025

Don’t Overthink it. Preferring Shorter Thinking Chains for Improved LLM Reasoning 기존 통념을 뒤집는 발견: 짧은 추론이 34.5% 더 정확 복잡한 수학 문제를 해결하는…

Spurious Rewards: Rethinking Training Signals in RLVR

“정답 몰라도 괜찮다”… AI 강화학습의 상식을 뒤엎은 워싱턴대 연구

6월 2, 2025

Spurious Rewards: Rethinking Training Signals in RLVR 무작위 보상만으로 21.4% 성능 향상, 틀린 답 보상해도 24.6% 상승 강화학습 분야에서 놀라운 연구 결과가 발표됐다. 워싱턴대학교와…

Emergent social conventions and collective bias in LLM populations

AI 에이전트 24개 모아 놨더니 신기한 일이… “AI끼리 대화하면서 ‘암묵적 룰’ 만들어”

6월 2, 2025

Emergent social conventions and collective bias in LLM populations 4가지 AI 모델, 15라운드 만에 전체 집단이 하나의 관습에 합의 대화형 AI 에이전트 집단이 명시적인…

Towards Embodied Cognition in Robots via Spatially Grounded Synthetic Worlds

로봇에게 “왼쪽 물건 가져와”라고 하면 정말 이해할까? 로봇의 공간 인지 기술

6월 2, 2025

Towards Embodied Cognition in Robots via Spatially Grounded Synthetic Worlds “왼쪽 물건 가져와” 명령을 이해하는 로봇의 핵심 기술, VPT란? 이탈리아 기술연구소(Italian Institute of Technology)와…

Beyond 'Aha!': Toward Systematic Meta-Abilities Alignment in Large Reasoning Models

‘번뜩’ 하는 순간에 의존하던 AI, 드디어 체계적으로 생각하는 법을 배웠다! 수학·코딩 성능 10% 급상승의 비밀

5월 30, 2025

Beyond ‘Aha!’: Toward Systematic Meta-Abilities Alignment in Large Reasoning Models 오픈AI o1·딥시크 R1도 겪는 ‘아하!’ 순간의 예측 불가능성 문제 세일즈 포스 AI 연구소 및…

Kaleidoscope Gallery: Exploring Ethics and Generative AI Through Art

“AI가 그린 정의의 저울은 한쪽으로 기울었다” 달리-3의 윤리 편향 실험

5월 29, 2025

Kaleidoscope Gallery: Exploring Ethics and Generative AI Through Art 덕 윤리는 남성 전용? DALL-E 3가 드러낸 성별·지역 편향 생성형 AI가 복잡한 철학적 개념을 어떻게…

Improving LLM First-Token Predictions in Multiple-Choice Question Answering via Prefilling Attack

“한 문장만 추가했는데 정답률이 40% 올랐다?” AI 모델의 객관식 문제 정답률 높이는 간단한 방법 발견

5월 29, 2025

Improving LLM First-Token Predictions in Multiple-Choice Question Answering via Prefilling Attack 구글 AI가 34%→72% 성능 급상승한 비밀, ‘프리필링’ 기법의 정체 이탈리아와 미국 대학 및…

Sufficient Context: A New Lens on Retrieval Augmented Generation Systems

“챗GPT도 속는다” AI가 정확한 정보를 줘도 14% 확률로 거짓말하는 이유

5월 27, 2025

Sufficient Context: A New Lens on Retrieval Augmented Generation Systems 표준 데이터셋의 55.4%가 불완전한 정보: ‘충분한 맥락’ 개념으로 드러난 AI 한계 검색 증강 생성(RAG)…

Social Sycophancy: A Broader Understanding of LLM Sycophancy

챗GPT는 왜 내 편만 들까? 스탠포드 연구진이 밝힌 충격적 진실

5월 27, 2025

Social Sycophancy: A Broader Understanding of LLM Sycophancy AI 모델들이 사용자에게 과도한 동조를 보이는 ‘사회적 아첨행동’ 발견 스탠포드 대학교 연구팀이 개발한 연구에 따르면, 대형언어모델(LLM)들이…

The Achilles' Heel of AI: Fundamentals of Risk-Aware Training Data for High-Consequence Models

국방·재난 AI가 실패하는 이유, 데이터 훈련 방식의 근본적 문제점은?

5월 26, 2025

The Achilles’ Heel of AI: Fundamentals of Risk-Aware Training Datafor High-Consequence Models 방어·재난대응 AI 모델, 기존 데이터 라벨링 방식으론 한계 드러나 전통적인 AI 훈련…

AI vs. Human Judgment of Content Moderation: LLM-as-a-Judge and Ethics-Based Response Refusals

AI가 AI를 평가하면 생기는 일? ‘도움 드릴 수 없습니다’ 답변을 32% 더 좋아해

5월 23, 2025

AI vs. Human Judgment of Content Moderation:LLM-as-a-Judge and Ethics-Based Response Refusals GPT-4o와 라마 모델, 윤리적 거부 응답에 32%포인트 높은 점수 대규모 언어 모델(LLM)이 다른…

AI Report 언어 모델 연구 - 31 중 5 번째 페이지 - AI매터스