Search

  • Home
  • AI Report 언어 모델 연구

AI Report 언어 모델 연구

Detection and Measurement of Syntactic Templates in Generated Text

AI 생성 텍스트의 ‘문법적 패턴’ 발견…노스이스턴대 연구진, 새로운 탐지 방법 제시

11월 4, 2024

인공지능이 작성한 글을 식별하는 것은 점점 더 어려워지고 있다. 최신 AI 언어모델들은 매우 자연스러운 텍스트를 생성할 수 있지만, 여전히 미묘한 차이가 존재한다. 노스이스턴대학교(Northeastern University)…

OmniParser for Pure Vision Based GUI Agent

마이크로소프트의 혁신, GUI 이해하는 AI 도구 ‘옴니파서’ 공개…GPT-4V 성능 한계 돌파

10월 28, 2024

마이크로소프트가 순수 컴퓨터 비전 기술만으로 사용자 인터페이스(UI)의 모든 상호작용 요소를 정확하게 인식하고 처리할 수 있는 ‘옴니파서(OmniParser)’를 개발했다. 이는 GPT-4V와 같은 대규모 시각언어 모델의 UI…

The Ultimate Guide to Fine-Tuning LLMs from Basics to Breakthroughs: An Exhaustive Review of Technologies, Research, Best Practices, Applied Research Challenges and Opportunities

AI 혁신을 이끄는 7단계 파인튜닝 전략

10월 25, 2024

대규모 언어 모델(LLM) 분야가 급속도로 발전하면서 파인튜닝 기술이 AI 응용의 핵심으로 부상하고 있다. 더블린 대학교 연구진이 발표한 최신 보고서는 LLM 파인튜닝의 전체 프로세스를 체계적으로…

"LLMS KNOW MORE THAN THEY SHOW: ON THE INTRINSIC REPRESENTATION OF LLM HALLUCINATIONS"

LLM, 실수할 때도 정답을 알고 있다…내부 표현 분석으로 밝혀진 흥미로운 발견

10월 23, 2024

대형 언어모델(Large Language Model, LLM)이 잘못된 답변을 생성할 때도 내부적으로는 정답을 알고 있다는 흥미로운 연구 결과가 발표됐다. 테크니온 공대와 구글 리서치, 애플 연구진이 공동으로…

DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data

딥시크, 대규모 합성 데이터로 AI의 수학 증명 능력 대폭 강화

10월 22, 2024

현대 수학의 증명이 점점 복잡해지면서 동료 평가 과정에서도 오류를 발견하기 어려워지고 있다. 이러한 문제를 해결하기 위해 린(Lean), 이자벨(Isabelle), 코크(Coq) 등의 형식 수학 언어가 개발됐지만,…

COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act

EU AI법 대응 첫 기술평가 프레임워크 ‘COMPL-AI’ 공개…12개 AI 모델 준수 여부 검증

10월 22, 2024

ETH 취리히와 INSAIT 소피아 대학 연구진이 EU AI법을 기술적으로 해석하고 이를 평가할 수 있는 최초의 종합적인 프레임워크 ‘COMPL-AI’를 개발했다. 이 프레임워크는 생성형 AI의 성능과…

Is In-Context Learning Sufficient for Instruction Following in LLMs?

생성형 AI의 학습능력 한계점 밝혀진다…맥락학습만으로는 역부족

10월 22, 2024

최근 EPFL 연구진은 생성형 AI 모델의 맥락학습(In-context Learning, ICL) 능력에 대한 광범위한 연구를 통해, ICL만으로는 모델의 지시사항 수행 능력을 최적화하는 데 한계가 있다는 사실을…

Adoption of Generative AI by Academic Biomedical Researchers

생성형 AI, 생명의학 연구 혁신의 열쇠될까… 연구자들 “기대 반 우려 반”

10월 18, 2024

ChatGPT로 대표되는 생성형 AI(인공지능)가 학계 전반에 큰 파장을 일으키고 있는 가운데, 생명의학 분야 연구자들의 반응에 관심이 쏠리고 있다. 최근 이타카 S+R(Ithaka S+R)이 실시한 대규모…

Rewarding Progress: Scaling Automated Process Verifiers for LLM Reasoning

Google DeepMind, AI 추론 능력 향상을 위한 ‘프로세스 어드밴티지 검증기’ 개발

10월 16, 2024

Google DeepMind 연구진이 대규모 언어 모델(LLM)의 추론 능력을 향상시키기 위한 새로운 방법론인 ‘프로세스 어드밴티지 검증기(Process Advantage Verifier, PAV)’를 개발했다. 이 연구는 LLM의 다단계 추론…

First-Person Fairness in Chatbots

OpenAI, 챗봇의 ‘일인칭 공정성’ 연구 결과 발표 – 이름 기반 편향 평가 방법론 제시

10월 15, 2024

OpenAI 연구진이 ChatGPT와 같은 대화형 AI 시스템에서 사용자 간 공정성을 평가하고 개선하기 위한 새로운 방법론을 제시했다. ‘일인칭 공정성(First-Person Fairness)’이라 명명된 이 접근법은 챗봇과 직접…

Scalable and Domain-General Abstractive Proposition Segmentation

Google DeepMind, 확장 가능하고 도메인 독립적인 추상적 명제 분할 기술 개발

10월 15, 2024

Google DeepMind 연구진이 텍스트를 의미 단위로 분할하는 ‘추상적 명제 분할(Abstractive Proposition Segmentation, APS)’ 기술의 획기적인 발전을 이뤄냈다. 이 기술은 문서를 단순히 문장 단위로 나누는…

Diversity-Rewarded CFG Distillation

생성 AI의 품질과 다양성을 동시에 높이는 ‘다양성 보상 CFG 증류’ 기법 개발

10월 15, 2024

Google DeepMind 연구진이 생성 AI 모델의 품질과 다양성을 동시에 향상시키는 새로운 기법인 ‘다양성 보상 CFG 증류(Diversity-Rewarded CFG Distillation)’를 개발했다. 이 기법은 기존 생성 AI…

GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models

애플, “대규모 언어 모델의 수학적 추론 능력에 한계 있어”

10월 14, 2024

대규모 언어 모델(LLM)의 수학적 추론 능력에 상당한 한계가 있다는 연구 결과가 나왔다. 애플 연구팀이 발표한 ‘GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large…

Michelangelo: Long Context Evaluations Beyond Haystacks via Latent Structure Queries

생성형 AI의 장문 이해력 평가: GPT-4와 Claude 3의 성능 비교

10월 8, 2024

최근 구글 딥마인드 연구진이 발표한 ‘Michelangelo’ 평가 방식은 최신 대규모 언어 모델들의 장문 이해 능력을 테스트하는 새로운 기준을 제시했다. 이 평가 방식은 기존의 ‘건초더미…

Generating Gender Alternatives in Machine Translation

기계번역에서 성 중립적 대안 생성의 새로운 지평을 열다

10월 8, 2024

기계번역 시스템이 성별이 모호한 단어를 번역할 때 데이터의 편향으로 인해 특정 성별로 치우치는 문제가 오랫동안 지적되어 왔다. 예를 들어 영어의 ‘nurse’를 스페인어로 번역할 때…

Can LLMs Generate Novel Research Ideas?

LLM 연구 아이디어 생성, 인간 전문가 넘어서다

10월 7, 2024

스탠포드대학교 연구팀이 대규모 언어 모델(LLM)의 연구 아이디어 생성 능력을 평가한 결과, LLM이 생성한 아이디어가 참신성 측면에서 인간 전문가를 능가하는 것으로 나타났다. 이번 연구는 100명…

Not All LLM Reasoners Are Created Equal

대형 언어모델의 복합 추론 능력, 예상보다 취약

10월 7, 2024

대형 언어모델(LLM)들이 단순 수학 문제는 잘 풀어내지만, 문제를 연계해 해결하는 복합적인 추론 능력은 떨어지는 것으로 나타났다. 최근 발표된 연구에 따르면, 대부분의 LLM이 기초 수학…

Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers)

구글, 새로운 척도로 대규모 언어 모델의 설명 충실도 측정

10월 7, 2024

인공지능(AI) 기술의 발전에 따라 대규모 언어 모델(LLM)의 설명 능력이 주목받고 있다. 그러나 이러한 설명이 얼마나 모델의 실제 추론 과정을 반영하는지, 즉 ‘충실도’를 측정하는 것은…

Artificial intelligence and the future of scientific publication

AI, 과학 출판 “공정성과 효율성 높일 것”

10월 4, 2024

AI가 의료 분야를 넘어 학술 출판 영역에서도 중요한 역할을 할 것으로 전망된다. 보스턴 대학교 의과대학의 하워드 바우크너(Howard Bauchner) 교수는 European Journal of Emergency Medicine…

Backwards Planning with Generative AI: Case Study Evidence from US K12 Teachers

생성형 AI와 교사의 생산성: 미국 교사들의 ChatGPT 활용 사례 연구

9월 30, 2024

미국 K-12 교육 현장에서 생성형 AI의 활용이 교사들의 생산성에 미치는 영향에 대한 흥미로운 연구 결과가 발표되었다. 미시간 대학교와 UC 버클리 연구진이 2023-2024학년도 동안 미국…

Sad Boomers, Sober Zoomers, Sidelined Gen Xers (again), and No Avotoast for Millennials

AI가 그린 세대 차이, 맥주는 모든 세대를 하나로 묶다

9월 27, 2024

인공지능(AI)이 각 세대를 어떻게 인식하고 있는지 보여주는 흥미로운 연구 결과가 발표됐다. 베이비부머부터 Z세대까지, AI가 그린 세대별 이미지에는 고정관념과 함께 예상 밖의 공통점도 드러났다. AI포트(AIport)와…

Evaluation of ChatGPT as a diagnostic tool for medical learners and clinicians

생성형 AI ChatGPT, 의료 진단 도구로서의 가능성과 한계 확인돼

9월 25, 2024

영국 웨스턴 대학교 연구팀이 인공지능 ChatGPT의 의료 진단 능력을 평가한 결과가 주목받고 있다. 연구진은 Medscape의 150개 임상 사례를 ChatGPT에 입력해 진단 정확도, 답변의 인지…

Conversational AI Powered by Large Language Models Amplifies False Memories in Witness Interviews

생성형 AI 챗봇, 목격자 진술에서 허위 기억 유발 가능성 3배 높여

9월 23, 2024

MIT 미디어랩과 캘리포니아 대학교 얼바인 캠퍼스 연구진이 수행한 최근 연구에 따르면, 대규모 언어 모델(LLM)을 기반으로 한 생성형 AI 챗봇이 목격자 진술에서 허위 기억을 유발할…

A Safe Harbor for AI Evaluation and Red Teaming

생성형 AI 평가의 새로운 패러다임, ‘안전한 항구’

9월 23, 2024

생성형 AI 기술이 급속도로 발전하면서 ChatGPT와 같은 시스템들이 1억 명 이상의 주간 사용자를 확보하는 등 소셜 미디어 플랫폼의 성장률을 뛰어넘고 있다. 이러한 상황에서 독립적인…

Rich Human Feedback for Text-to-Image Generation

생성형 AI의 이미지 품질 평가, 이제는 더 정교하게

9월 23, 2024

최근 몇 년간 스테이블 디퓨전(Stable Diffusion)이나 이마젠(Imagen) 같은 텍스트-이미지 생성(Text-to-Image, T2I) AI 모델들이 급속도로 발전하며 고해상도 이미지 생성이 가능해졌다. 하지만 이러한 발전에도 불구하고 여전히…

Durably reducing conspiracy beliefsthrough dialogues with AI

AI와의 대화로 음모론 믿음 감소시킨 연구 결과 발표

9월 13, 2024

인공지능(AI)과의 짧은 대화만으로도 사람들의 음모론 믿음을 크게 줄일 수 있다는 연구 결과가 발표됐다. 매사추세츠 공과대학(MIT)과 코넬대학교 연구팀은 대규모 언어 모델(Large Language Model, LLM)을 활용해…

GPT-fabricated scientific papers on Google Scholar: Key features, spread, and implications for preempting evidence manipulation

GPT가 만든 가짜 논문들, 구글 스칼라(Google Scholar)에 퍼지며 과학적 증거 기반 위협

9월 11, 2024

인공지능(AI) 기술의 발전으로 생성형 AI 모델인 GPT(Generative Pre-trained Transformer)를 이용해 만든 가짜 학술 논문들이 구글 스칼라(Google Scholar)에 무분별하게 퍼지고 있다. 이는 과학적 증거 기반을…

Re-Reading Improves Reasoning in Large Language Models

대형 언어 모델의 추론 능력, ‘다시 읽기’로 향상된다

9월 9, 2024

인공지능(AI) 기술의 발전으로 대형 언어 모델(Large Language Models, LLMs)이 주목받고 있지만, 복잡한 추론 능력에는 여전히 한계가 있었다. 최근 마이크로소프트와 정보기술연구소(Institute of Information Engineering)의 연구진들이…

Human perceptions of social robot deception behaviors: an exploratory analysis

로봇의 기만 행위, 인간은 어떻게 인식할까?

9월 6, 2024

인공지능(AI)과 로봇 기술의 발전으로 사회적 공간에 로봇이 점점 더 많이 도입되고 있다. 의료, 교육, 서비스업 등 다양한 분야에서 로봇이 활용되면서 인간과 로봇의 상호작용이 늘어나고…

Emotion API

‘감정 AI’, 비즈니스 소프트웨어의 차세대 트렌드로 부상… 문제점도 지적돼

9월 5, 2024

인공지능(AI)이 기업 전반에 도입되면서 예상치 못한 트렌드가 등장했다. 기업들이 AI 봇에 인간의 감정을 이해시키려는 시도다. 피치북(PitchBook)의 최신 ‘엔터프라이즈 SaaS 신흥 기술 연구’ 보고서에 따르면,…

AI Report 언어 모델 연구 - 36 중 11 번째 페이지 - AI매터스