Search

  • Home
  • AI Report 언어 모델 연구

AI Report 언어 모델 연구

Michelangelo: Long Context Evaluations Beyond Haystacks via Latent Structure Queries

생성형 AI의 장문 이해력 평가: GPT-4와 Claude 3의 성능 비교

10월 8, 2024

최근 구글 딥마인드 연구진이 발표한 ‘Michelangelo’ 평가 방식은 최신 대규모 언어 모델들의 장문 이해 능력을 테스트하는 새로운 기준을 제시했다. 이 평가 방식은 기존의 ‘건초더미…

Generating Gender Alternatives in Machine Translation

기계번역에서 성 중립적 대안 생성의 새로운 지평을 열다

10월 8, 2024

기계번역 시스템이 성별이 모호한 단어를 번역할 때 데이터의 편향으로 인해 특정 성별로 치우치는 문제가 오랫동안 지적되어 왔다. 예를 들어 영어의 ‘nurse’를 스페인어로 번역할 때…

Can LLMs Generate Novel Research Ideas?

LLM 연구 아이디어 생성, 인간 전문가 넘어서다

10월 7, 2024

스탠포드대학교 연구팀이 대규모 언어 모델(LLM)의 연구 아이디어 생성 능력을 평가한 결과, LLM이 생성한 아이디어가 참신성 측면에서 인간 전문가를 능가하는 것으로 나타났다. 이번 연구는 100명…

Not All LLM Reasoners Are Created Equal

대형 언어모델의 복합 추론 능력, 예상보다 취약

10월 7, 2024

대형 언어모델(LLM)들이 단순 수학 문제는 잘 풀어내지만, 문제를 연계해 해결하는 복합적인 추론 능력은 떨어지는 것으로 나타났다. 최근 발표된 연구에 따르면, 대부분의 LLM이 기초 수학…

Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers)

구글, 새로운 척도로 대규모 언어 모델의 설명 충실도 측정

10월 7, 2024

인공지능(AI) 기술의 발전에 따라 대규모 언어 모델(LLM)의 설명 능력이 주목받고 있다. 그러나 이러한 설명이 얼마나 모델의 실제 추론 과정을 반영하는지, 즉 ‘충실도’를 측정하는 것은…

Artificial intelligence and the future of scientific publication

AI, 과학 출판 “공정성과 효율성 높일 것”

10월 4, 2024

AI가 의료 분야를 넘어 학술 출판 영역에서도 중요한 역할을 할 것으로 전망된다. 보스턴 대학교 의과대학의 하워드 바우크너(Howard Bauchner) 교수는 European Journal of Emergency Medicine…

Backwards Planning with Generative AI: Case Study Evidence from US K12 Teachers

생성형 AI와 교사의 생산성: 미국 교사들의 ChatGPT 활용 사례 연구

9월 30, 2024

미국 K-12 교육 현장에서 생성형 AI의 활용이 교사들의 생산성에 미치는 영향에 대한 흥미로운 연구 결과가 발표되었다. 미시간 대학교와 UC 버클리 연구진이 2023-2024학년도 동안 미국…

Sad Boomers, Sober Zoomers, Sidelined Gen Xers (again), and No Avotoast for Millennials

AI가 그린 세대 차이, 맥주는 모든 세대를 하나로 묶다

9월 27, 2024

인공지능(AI)이 각 세대를 어떻게 인식하고 있는지 보여주는 흥미로운 연구 결과가 발표됐다. 베이비부머부터 Z세대까지, AI가 그린 세대별 이미지에는 고정관념과 함께 예상 밖의 공통점도 드러났다. AI포트(AIport)와…

Evaluation of ChatGPT as a diagnostic tool for medical learners and clinicians

생성형 AI ChatGPT, 의료 진단 도구로서의 가능성과 한계 확인돼

9월 25, 2024

영국 웨스턴 대학교 연구팀이 인공지능 ChatGPT의 의료 진단 능력을 평가한 결과가 주목받고 있다. 연구진은 Medscape의 150개 임상 사례를 ChatGPT에 입력해 진단 정확도, 답변의 인지…

Conversational AI Powered by Large Language Models Amplifies False Memories in Witness Interviews

생성형 AI 챗봇, 목격자 진술에서 허위 기억 유발 가능성 3배 높여

9월 23, 2024

MIT 미디어랩과 캘리포니아 대학교 얼바인 캠퍼스 연구진이 수행한 최근 연구에 따르면, 대규모 언어 모델(LLM)을 기반으로 한 생성형 AI 챗봇이 목격자 진술에서 허위 기억을 유발할…

A Safe Harbor for AI Evaluation and Red Teaming

생성형 AI 평가의 새로운 패러다임, ‘안전한 항구’

9월 23, 2024

생성형 AI 기술이 급속도로 발전하면서 ChatGPT와 같은 시스템들이 1억 명 이상의 주간 사용자를 확보하는 등 소셜 미디어 플랫폼의 성장률을 뛰어넘고 있다. 이러한 상황에서 독립적인…

Rich Human Feedback for Text-to-Image Generation

생성형 AI의 이미지 품질 평가, 이제는 더 정교하게

9월 23, 2024

최근 몇 년간 스테이블 디퓨전(Stable Diffusion)이나 이마젠(Imagen) 같은 텍스트-이미지 생성(Text-to-Image, T2I) AI 모델들이 급속도로 발전하며 고해상도 이미지 생성이 가능해졌다. 하지만 이러한 발전에도 불구하고 여전히…

Durably reducing conspiracy beliefsthrough dialogues with AI

AI와의 대화로 음모론 믿음 감소시킨 연구 결과 발표

9월 13, 2024

인공지능(AI)과의 짧은 대화만으로도 사람들의 음모론 믿음을 크게 줄일 수 있다는 연구 결과가 발표됐다. 매사추세츠 공과대학(MIT)과 코넬대학교 연구팀은 대규모 언어 모델(Large Language Model, LLM)을 활용해…

GPT-fabricated scientific papers on Google Scholar: Key features, spread, and implications for preempting evidence manipulation

GPT가 만든 가짜 논문들, 구글 스칼라(Google Scholar)에 퍼지며 과학적 증거 기반 위협

9월 11, 2024

인공지능(AI) 기술의 발전으로 생성형 AI 모델인 GPT(Generative Pre-trained Transformer)를 이용해 만든 가짜 학술 논문들이 구글 스칼라(Google Scholar)에 무분별하게 퍼지고 있다. 이는 과학적 증거 기반을…

Re-Reading Improves Reasoning in Large Language Models

대형 언어 모델의 추론 능력, ‘다시 읽기’로 향상된다

9월 9, 2024

인공지능(AI) 기술의 발전으로 대형 언어 모델(Large Language Models, LLMs)이 주목받고 있지만, 복잡한 추론 능력에는 여전히 한계가 있었다. 최근 마이크로소프트와 정보기술연구소(Institute of Information Engineering)의 연구진들이…

Human perceptions of social robot deception behaviors: an exploratory analysis

로봇의 기만 행위, 인간은 어떻게 인식할까?

9월 6, 2024

인공지능(AI)과 로봇 기술의 발전으로 사회적 공간에 로봇이 점점 더 많이 도입되고 있다. 의료, 교육, 서비스업 등 다양한 분야에서 로봇이 활용되면서 인간과 로봇의 상호작용이 늘어나고…

Emotion API

‘감정 AI’, 비즈니스 소프트웨어의 차세대 트렌드로 부상… 문제점도 지적돼

9월 5, 2024

인공지능(AI)이 기업 전반에 도입되면서 예상치 못한 트렌드가 등장했다. 기업들이 AI 봇에 인간의 감정을 이해시키려는 시도다. 피치북(PitchBook)의 최신 ‘엔터프라이즈 SaaS 신흥 기술 연구’ 보고서에 따르면,…

Detection of ChatGPT fake science with the xFakeSci learning algorithm

챗GPT(ChatGPT) 생성 가짜 과학 논문, AI로 탐지한다

9월 5, 2024

인공지능(AI) 기술의 발전으로 챗GPT(ChatGPT)와 같은 생성형 AI 도구가 현실화되면서 이를 악용한 가짜 과학 논문 생성에 대한 우려가 커지고 있다. 이에 연구진들이 AI 기술을 활용해…

How AI is being abused to create child sexual abuse imagery

AI로 생성된 아동 성학대 이미지, 새로운 디지털 위협

9월 5, 2024

인공지능(AI) 기술의 급속한 발전이 가져온 혜택 이면에 심각한 부작용이 드러나고 있다. 영국의 인터넷감시재단(Internet Watch Foundation, IWF)이 최근 발표한 보고서에 따르면, AI로 생성된 아동 성학대…

Transfusion: Predict the Next Token and Diffuse Images with One Multi-Modal Model

멀티모달 AI의 새로운 접근, 트랜스퓨전(Transfusion)

9월 5, 2024

최근 인공지능 연구에서 멀티모달 모델의 중요성이 부각되고 있는 와중에 메타와 서든캘리포니아대학(USC) 연구진이 이산 및 연속 데이터 양식을 모두 처리할 수 있는 새로운 LMM ‘트랜스퓨전(transfusion)’에…

Smaller, Weaker, Yet Better: Training LLM Reasoners via Compute-Optimal Sampling

구글 딥마인드, LLM 홍수 속 sLLM모델 우수성 증명

9월 3, 2024

구글 딥마인드(Google DeepMind), UCLA, 그리고 밀라(Mila) 연구소의 연구진은 동일한 컴퓨팅 예산 내에서 대규모 언어 모델 대신 소형 모델을 활용하여 더 많은 샘플을 생성하는 방식의…

DisTrO_Distributed Training Over-the-Internet

DisTrO, 대규모 AI 모델 학습의 새로운 지평을 열다

9월 3, 2024

인공지능(AI) 기술의 발전과 함께 대규모 언어 모델(Large Language Models, LLMs)과 대규모 확산 모델(Large Diffusion Models, LDMs)의 중요성이 날로 커지고 있다. 그러나 이러한 모델들의 학습에는…

Detecting hallucinations in large language models using semantic entropy

옥스포드 대학, AI 언어 모델의 ‘환각’ 문제 새로운 해결책 제시

9월 2, 2024

인공지능(AI) 기술이 발전함에 따라 대화형 AI 모델의 활용 범위가 넓어지고 있다. 하지만 이러한 모델들이 때때로 보이는 ‘환각’ 현상은 여전히 큰 걸림돌로 작용하고 있다. 지난…

AI models can be fooled by invisible text on websites

AI 챗봇, 보이지 않는 텍스트로 쉽게 조작될 수 있어

9월 2, 2024

미국의 IT전문매체 더디코더(the decoder)는 뉴욕타임스의 케빈 루스(Kevin Roose) 기자가 인공지능(AI) 챗봇을 간단히 조작할 수 있는 방법을 공개했다고 보도했다. 이는 현재 AI 검색 시스템의 취약점을…

Establish fair rules on AI data scraping

AI 학습 데이터 논란… 연구자들 “우리 논문 무단 사용됐다”

8월 30, 2024

인공지능(AI) 기술이 급속도로 발전하면서 AI 모델 학습에 사용되는 데이터의 출처와 활용 방식에 대한 우려가 커지고 있다. 특히 학술 논문과 같은 창작물이 AI 학습에 무단으로…

AI deception: A survey of examples, risks, and potential solutions

AI 기만의 실태와 위험성, 인공지능의 거짓말 어디까지 왔나

8월 30, 2024

인공지능(AI) 기술이 급속도로 발전하면서 우리 생활 곳곳에 스며들고 있다. 하지만 최근 AI가 인간을 속이는 사례들이 잇따라 보고되면서 우려의 목소리가 커지고 있다. 미국 AI 안전…

생성형 AI의 추론 능력, 테스트 시 연산 최적화로 크게 향상

생성형 AI의 추론 능력, 테스트 시 연산 최적화로 크게 향상

8월 28, 2024

생성형 AI 모델의 추론 능력을 높이는 방법으로 모델 크기를 키우는 것 외에도 추론 시 연산을 최적화하는 방법이 주목받고 있다. 최근 연구에 따르면, 테스트 시…

중앙대 연구진, AI가 스트레스 해소 음악 찾아낸다.

중앙대 연구진, AI가 스트레스 해소 음악 찾아낸다.

8월 28, 2024

인공지능(AI)이 스트레스 완화에 효과적인 음악을 선별하는 시대가 도래했다. 최근 한국과 미국의 연구진이 합작하여 개발한 새로운 딥러닝 기술이 기존의 스트레스 완화 음악 선별 방식의 한계를…

AI시대에도 “철학자들의 역할 중요해”

AI시대에도 “철학자들의 역할 중요해”

8월 27, 2024

수학자이자 과학자인 스티븐 울프럼(Stephen Wolfram)이 인공지능(AI) 연구에 철학적 사고의 필요성을 강조했다. 울프럼은 AI가 발전함에 따라 직면하게 되는 복잡한 문제들을 해결하기 위해 철학자들의 역할이 중요해질…

AI 모델의 ‘붕괴’ 현상, 장기적 학습에 위협될 수 있어

AI 모델의 ‘붕괴’ 현상, 장기적 학습에 위협될 수 있어

8월 27, 2024

인공지능(AI) 기술이 급속도로 발전하면서 생성형 AI 모델들이 쏟아져 나오고 있다. ChatGPT, DALL-E, Midjourney 등 다양한 생성형 AI가 주목받고 있지만, 이러한 모델들이 자신들이 생성한 데이터로…

AI Report 언어 모델 연구 - 31 중 10 번째 페이지 - AI매터스