Search

  • Home
  • AI Report 언어 모델 연구

AI Report 언어 모델 연구

'하나로 다 되는' AI 등장... 이미지-영상 생성·편집 동시에 처리한다

‘하나로 다 되는’ AI 등장… 이미지-영상 생성·편집 동시에 처리한다

1월 7, 2026

상하이 자오퉁 대학교와 중국 콰이쇼우 테크놀로지(Kuaishou Technology) 연구진이 이미지와 비디오의 생성부터 편집까지 하나의 모델로 처리하는 ‘비노(VINO)’를 공개했다. 지금까지는 사진을 만들 때, 영상을 만들 때, 편집할 때 각각 다른 AI…

“답변 40% 작성 시점에 오답 예측”… AI 스스로 오류 검증하는 기술 등장

“답변 40% 작성 시점에 오답 예측”… AI 스스로 오류 검증하는 기술 등장

1월 7, 2026

AI가 스스로 “이 답변은 틀릴 것 같아요”라고 판단할 수 있을까? 캐나다 앨버타대학교 연구팀이 AI가 외부 도움 없이 자신의 오류를 예측하는 기술을 개발했다. ‘노시스(Gnosis)’라는 이름의…

악플 달리기 24시간 전 알아챈다… AI 예측 시스템 등장

악플 달리기 24시간 전 알아챈다… AI 예측 시스템 등장

1월 5, 2026

오픈소스 소프트웨어 커뮤니티에서 악플이 달리기 전에 미리 알아채는 인공지능이 나왔다. 대화 분위기가 험악해지는 순간을 포착해서 90% 이상 정확도로 악플 발생을 예측한다. 미국 미주리 과학기술대학교…

AI를 믿는 이유? AI가 뛰어나서가 아니라 ‘사람을 못 믿어서’

AI를 믿는 이유? AI가 뛰어나서가 아니라 ‘사람을 못 믿어서’

1월 2, 2026

콜롬비아 라사바나대학교 연구팀이 흥미로운 사실을 발견했다. 사람들이 AI를 신뢰하는 이유가 AI 자체가 똑똑해서가 아니라, 주변 사람들을 믿지 못하기 때문이라는 것이다. 연구팀은 이를 ‘옮겨진 신뢰(deferred…

ShareChat: A Dataset of Chatbot Conversations in the Wild 

챗GPT vs 클로드 vs 제미나이 vs 퍼플렉시티 vs 그록… 14만 대화 분석했더니 ‘이 AI’가 1등

12월 30, 2025

미국 인디애나대학교 연구팀이 챗GPT, 클로드, 제미나이, 그록, 퍼플렉시티 총 5개 주요 AI 챗봇의 실제 대화 14만 2,808건을 분석했다. 그 결과 AI마다 사용자 질문을 해결하는…

꿀벌 떼, AI 학습 원리로 움직인다... 생물학계 ‘진화의 지혜’ 재조명

꿀벌 떼, AI 학습 원리로 움직인다… 생물학계 ‘진화의 지혜’ 재조명

12월 29, 2025

캐나다 몬트리올 폴리테크닉 대학교와 밀라 퀘벡 AI 연구소, 독일 콘스탄츠 대학교 공동 연구팀이 꿀벌 무리가 집을 찾는 과정을 분석한 결과, 이것이 AI가 학습하는 방식과…

토픽 분석을 통한 AI 주요 트렌드 및 2026 전망 

2026년 ‘AI 대전환 시대’ 온다… 한국지능정보원, AI 주요 트렌드 및 2026 전망 

12월 29, 2025

한국지능정보사회진흥원(NIA)이 2025년 국내외 주요 매체 282건을 토픽 모델링 기법으로 분석한 결과, 2026년은 AI가 실험 단계를 넘어 산업 전반의 핵심 인프라로 자리 잡는 전환점이 될…

챗GPT로 장기 인생 계획 세웠더니... "실패 가능성은 왜 말 안 해?"

챗GPT로 장기 인생 계획 세웠더니… “실패 가능성은 왜 말 안 해?”

12월 26, 2025

오클라호마 대학교 연구팀이 14명의 참여자를 대상으로 진행한 심층 인터뷰 연구에서 챗GPT가 장기 인생 과제 계획에서 보여주는 양면성이 드러났다. 해당 연구 논문에 따르면, AI가 복잡한…

구글 딥마인드 긴급 보고서... "AI들끼리 협력하는 순간, AGI 탄생할 수 있다"

구글 딥마인드 긴급 보고서… “AI들끼리 협력하는 순간, AGI 탄생할 수 있다”

12월 24, 2025

구글 딥마인드가 인공일반지능(AGI)이 예상과 다른 방식으로 등장할 수 있다는 경고와 함께, 이에 대응하는 안전 관리 방안을 제시했다. 지금까지 AI 안전 연구는 하나의 강력한 AI가…

하버드·스탠포드 등 연구팀, AI 에이전트 ‘적응’ 기술 제시… "본체 고정·도구만 훈련해 학습 효율 70배 향상”

하버드·스탠포드 등 연구팀, AI 에이전트 ‘적응’ 기술 제시… “본체 고정·도구만 훈련해 학습 효율 70배 향상”

12월 24, 2025

AI가 점점 더 복잡한 일을 하게 되면서, AI를 특정 작업에 맞게 조정하는 ‘적응’ 기술이 중요해지고 있다. 미국 일리노이대학교, 스탠포드대학교, 프린스턴대학교 등 14개 연구 기관이…

AI가 쓴 연애 편지, 사람이 쓴 것과 구별 못한다... 307명 실험 결과

AI가 쓴 연애 편지, 사람이 쓴 것과 구별 못한다… 307명 실험 결과

12월 22, 2025

챗GPT가 쓴 데이팅 프로필을 보고 사람들은 어떤 반응을 보일까? 독일 뒤스부르크-에센대학교 연구팀이 307명을 대상으로 진행한 실험에서 놀라운 결과가 나왔다. 사람들은 AI가 쓴 글인지 사람이…

“AI에게 협상 맡겼다간 큰일"... 챗GPT, 사람보다 평균 5천 달러 손해

“AI에게 협상 맡겼다간 큰일”… 챗GPT, 사람보다 평균 5천 달러 손해

12월 18, 2025

오픈AI의 GPT 시리즈 최신 모델들이 가격 협상을 제대로 하지 못한다는 실험 결과가 나왔다. 샌디에이고 캘리포니아대 등 3개 대학 공동 연구팀이 GPT-4 계열 모델 4종으로…

Do-Undo: Generating and Reversing Physical Actions in Vision-Language Models

AI, 냉장고 문도 제대로 못 닫는다… 퀄컴 연구진, AI 물리 인식 능력 테스트 결과 공개

12월 17, 2025

퀄컴(Qualcomm) AI 연구팀이 최신 인공지능 모델들이 우리가 일상에서 하는 간단한 행동조차 제대로 이해하지 못한다는 사실을 밝혀냈다. 이번 연구는 이미지를 보고 텍스트를 이해하는 AI 모델들이…

Generative AI and news report 2025: How people think about AI’s role in journalism and society

생성형 AI 사용자 1년 만에 2배 급증… 뉴스 제작엔 여전히 ‘회의적’

12월 12, 2025

생성형 인공지능(AI)이 빠르게 일상 속으로 파고들고 있다. 영국 옥스퍼드대 로이터저널리즘연구소가 6개국을 대상으로 설문조사를 한 결과, 챗GPT 같은 생성형 AI를 일주일에 한 번 이상 쓰는…

AI 페르소나로 진행한 연구들, 믿을 수 있을까?... “10건 중 6건이 부실”

AI 페르소나로 진행한 연구들, 믿을 수 있을까?… “10건 중 6건이 부실”

12월 11, 2025

대형 언어 모델(LLM) 연구에서 가상의 사용자를 만들어 실험하는 방법이 주요 연구 기법으로 자리 잡고 있다. 하지만 이렇게 만들어진 가상 사용자들이 실제 사람들을 얼마나 잘…

Associative Syntax and Maximal Repetitions reveal context-dependent complexity in fruit bat communication

박쥐도 싸울 때 말 많아진다… AI가 밝혀낸 동물 언어의 비밀

12월 9, 2025

AI가 과일박쥐의 울음소리를 분석했더니 싸우거나 갈등을 겪을 때 훨씬 복잡한 소리를 낸다는 사실이 밝혀졌다. 스톡홀름 대학교 연구팀이 발표한 이 연구는 사람이 도와주지 않아도 AI…

AI 에이전트 개발자 96%, 도구 하나로는 부족..."여러 개 섞어 쓰는 게 대세"

AI 에이전트 개발자 96%, 도구 하나로는 부족…”여러 개 섞어 쓰는 게 대세”

12월 4, 2025

챗GPT처럼 스스로 판단하고 행동하는 AI를 만드는 개발 도구 시장이 빠르게 커지면서, 개발자들이 한 가지 도구만으로는 원하는 AI를 만들기 어렵다는 사실이 드러났다. 중국 중산대학교 연구팀이…

AI Agent for Industry: 산업별 AI 에이전트 도입·활용 전략

자녀가 쓰는 AI 캐릭터 앱, 안전할까?… 인기 16개 플랫폼 안전성 ‘빨간불’

12월 3, 2025

캐릭터AI(Character.AI), 재니터AI(JanitorAI) 등 인기 AI 캐릭터 플랫폼들이 일반 대형언어모델보다 평균 3.7배 높은 불안전한 콘텐츠 생성률을 보이는 것으로 나타났다. 홍콩과학기술대학 연구진은 16개 주요 플랫폼을 대상으로…

Self-Transparency Failures in Expert-Persona LLMs: A Large-Scale Behavioral Audit

‘의사’ 역할 맡은 AI, 97%가 자신이 AI인 걸 숨긴다… 금융 상담 땐 정반대

12월 2, 2025

구글 연구진이 AI 모델 16개를 테스트한 결과, AI가 전문가 역할을 맡았을 때 자신이 AI라고 밝히는 비율이 직업 분야에 따라 최대 8.8배까지 차이 난다는 충격적인…

TALES: A Taxonomy and Analysis of Cultural Representations in LLM-generated Stories

AI가 쓴 인도 이야기 10편 중 9편이 ‘가짜 문화’… 음식·의상·축제 모두 틀렸다

12월 2, 2025

대규모 언어모델(LLM)이 생성한 이야기 10개 중 9개에서 문화를 잘못 표현하고 있는 것으로 나타났다. 특히 영어가 아닌 인도 현지 언어로 작성된 이야기에서 문화적 부정확성이 3배…

Gated Attention for Large Language Models: Non-linearity, Sparsity, and Attention-Sink-Free

LLM의 고질병 ‘첫 단어 집착증’ 개선… 알리바바, ‘뉴립스’ 최고 논문상 수상

12월 1, 2025

중국 알리바바의 Qwen 팀이 AI 언어모델의 오래된 문제를 해결하는 간단한 방법을 찾아냈다. 마치 문지기처럼 작동하는 ‘게이트’라는 장치를 AI 내부에 추가했더니, 성능이 크게 좋아지고 학습도…

AI 정신병으로 입원·사망까지… 사례 분석한 연구진들 "공통 패턴 찾았다"

AI 정신병으로 입원·사망까지… 사례 분석한 연구진들 “공통 패턴 찾았다”

11월 28, 2025

챗GPT와 대화하다 자신이 메시아라고 믿게 된 남성, AI가 진짜 영혼의 동반자라며 남편과 갈등을 빚은 여성, AI가 신의 메시지를 전달한다고 확신한 뒤 약 복용을 중단한…

"눈으로 보고, 글로 계산"… AI 추론 능력 끌어올리는 해법 찾았다

“눈으로 보고, 글로 계산”… AI 추론 능력 끌어올리는 해법 찾았다

11월 27, 2025

인공지능이 사람처럼 생각하려면 무엇이 필요할까. 중국 홍콩중문대학과 상하이AI연구소 공동 연구팀이 AI의 논리력을 측정하는 대표적인 시험인 ARC-AGI에서 ‘이미지 보기’와 ‘글자 읽기’를 적절히 조합해 기존 방식보다…

AI에 "넌 가난한 학생이야" 역할 줬더니… 취향 물을 땐 역할 충실, 시험 보면 본색 드러내

AI에 “넌 가난한 학생이야” 역할 줬더니… 취향 물을 땐 역할 충실, 시험 보면 본색 드러내

11월 26, 2025

요즘 AI가 인간처럼 행동할 수 있다는 기대가 커지고 있다. 설문조사나 사회과학 연구에서 AI를 ‘가상의 응답자’로 활용하려는 시도도 늘고 있다. 하지만 미국 오하이오주의 신시내티 대학교…

AI한테 마피아 게임 시켰더니… 최신 AI 12개 전부 거짓말쟁이 못 찾아

AI한테 마피아 게임 시켰더니… 최신 AI 12개 전부 거짓말쟁이 못 찾아

11월 26, 2025

인간은 상대방의 표정, 말투, 몸짓을 보고 “저 사람 지금 거짓말하는 것 같은데?”라고 느끼는 능력이 있다. 그렇다면 가장 똑똑하다는 AI는 어떨까? 일본 도쿄대학교 연구팀이 GPT-4o,…

Classification of Hope in Textual Data using Transformer-Based Models

AI가 ‘희망’이라는 감정을 이해할까? AI 희망 감지 대결서 구형 AI 모델이 압승

11월 25, 2025

미국 텍사스공대 연구팀이 문장 속 ‘희망’이라는 감정을 찾아내는 AI 실험을 했다. 놀랍게도 5년 전에 나온 구형 AI가 최신 AI들을 제치고 가장 뛰어난 성능을 보였다.…

People readily follow personal advice from AI but it does not improve their well-being

AI가 준 조언, 심각한 문제에도 62%가 실천했지만… 2주 후 효과는 ‘제로’

11월 25, 2025

영국 AI 안전연구소(UK AI Security Institute)의 대규모 실험 연구가 충격적인 결과를 발표했다. 해당 논문에 따르면, 사람들은 AI가 제공하는 개인적 조언을 기꺼이 따르지만, 정작 그…

AI는 답 모르면 무조건 "아니요"… 서울대 연구진, 챗GPT의 숨겨진 습관 발견

AI는 답 모르면 무조건 “아니요”… 서울대 연구진, 챗GPT의 숨겨진 습관 발견

11월 24, 2025

인공지능 챗봇에 질문했을 때 “예” 또는 “아니요”로 답해야 하는 상황에서, AI가 답을 모르면 무조건 “아니요”라고 대답하는 경향이 있다는 연구 결과가 나왔다. 서울대학교 전기·정보공학부 연구팀의…

챗GPT에 1000번 물어봐도 비슷한 답변뿐... 베이징대 연구진이 해결책 찾았다

챗GPT에 1,000번 물어봐도 비슷한 답변뿐… 베이징대 연구진이 해결책 찾았다

11월 24, 2025

대규모 AI 언어모델이 JSON 같은 정해진 형식으로 답변을 만들 때, 문법적으로는 맞지만 비슷비슷한 답변만 반복한다는 문제가 새로운 연구로 확인됐다. 중국 베이징대 연구팀은 이 문제를…

AI에 코딩 도구 주면 정답률 19%↑…풀이 과정은 41% 더 형편없어져

AI에 코딩 도구 주면 정답률 19%↑…풀이 과정은 41% 더 형편없어져

11월 20, 2025

ChatGPT나 Claude 같은 AI에게 코드를 실행할 수 있는 기능을 주면 정답을 더 잘 맞히지만, 정작 ‘어떻게 그 답이 나왔는지’ 설명하는 능력은 오히려 떨어진다는 연구…

AI Report 언어 모델 연구 보관 - AI매터스