Search

  • Home
  • AI Report 언어 모델 연구

AI Report 언어 모델 연구

AI-generated poetry is indistinguishable from human-written poetry and is rated more favorably

AI로 생성한 시, 인간 시인보다 더 높은 평가받아… “더 인간적”이라는 평가도

11월 18, 2024

피츠버그 대학교 연구진이 실시한 두 차례의 실험 결과, AI가 생성한 시와 유명 시인들의 작품을 구별하는 것이 불가능한 수준에 이르렀음이 밝혀졌다. 첫 번째 실험에서 1,634명의…

How Gen AI Is Already Impacting the Labor Market

생성형 AI가 바꾸는 노동시장 지형도… “글쓰기 일자리 30% 증발, AI 전문가는 급증”

11월 18, 2024

2000년대 초 아마존(Amazon)이 키바(Kiva) 로봇을 도입했을 때와 마찬가지로, 챗지피티(ChatGPT)와 같은 생성형 AI의 등장은 일자리 감소에 대한 우려를 낳고 있다. 그러나 이전의 자동화 기술과 달리,…

Limitations and Loopholes in the EU AI Act and AI Liability Directives: What This Means for the European Union, the United States, and Beyond

EU, AI법 책임성 강화해야…”현행 규제안으론 AI 위험 통제 역부족”

11월 15, 2024

유럽연합(EU)의 인공지능(AI) 규제가 현실적 실효성을 확보하지 못하고 있다는 비판적 분석이 제기됐다. 옥스포드 인터넷연구소의 산드라 바흐터(Sandra Wachter) 교수는 최근 예일대 법학기술저널에 발표한 논문을 통해 “EU의…

Developing a 172B LLM with Strong Japanese Capabilities Using NVIDIA Megatron-LM

엔비디아, 일본 최대 규모 172B 언어모델 개발… “일본어 이해력 높인다”

11월 14, 2024

현재 상위권 언어모델들은 일본어를 포함한 비영어 언어에서 충분한 성능을 보여주지 못하고 있다. 대표적으로 GPT-3의 학습 데이터셋에서 일본어가 차지하는 비중은 0.11%에 불과하다. 일본 경제산업성(METI)은 자국의…

CurateGPT: A flexible language-model assisted biocuration tool

GPT가 의학 연구자들의 ‘정보 비서’로 진화한다…CurateGPT 등장

11월 12, 2024

의학 연구자들이 매일 직면하는 가장 큰 고민거리는 무엇일까? 바로 폭발적으로 늘어나는 연구 논문과 데이터다. 펍메드(PubMed)에는 매년 100만 편 이상의 새로운 의학 논문이 추가된다. 하루…

Proceedings of the ASME 2024: INSPIRED BY AI? A NOVEL GENERATIVE AI SYSTEM TO ASSIST CONCEPTUAL AUTOMOTIVE DESIGN

인공지능, 자동차 디자이너와 함께 혁신적 디자인 만든다

11월 11, 2024

오토데스크 리서치(Autodesk Research)가 개발한 생성형 AI 시스템이 자동차 디자이너들의 창의적인 컨셉 디자인 개발을 지원한다. 디자이너들은 일반적으로 핀터레스트(Pinterest) 등의 플랫폼에서 이미지를 검색하고 스케치하는 과정을 거치는데,…

The Reopening of Pandora's Box: Analyzing the Role of LLMs in the Evolving Battle Against AI-Generated Fake News

AI와 인간의 협력으로 만든 가짜뉴스, AI도 구분 못한다

11월 11, 2024

대규모 언어모델(LLM)이 인간보다 진짜 뉴스를 구분하는 능력은 68% 더 뛰어났지만, 가짜뉴스를 탐지하는 정확도는 인간과 비슷한 60% 수준에 그친 것으로 나타났다. 미국의 한 주요 연구대학에서…

Revealing Hidden Bias in AI: Lessons from Large Language Models

LLM 기반 AI 면접의 숨겨진 편향성 연구…”라마(Llama) 3.1이 가장 공정”

11월 11, 2024

최근 채용 과정에서 대규모 언어모델(LLM)을 활용한 AI 시스템 도입이 급증하면서, AI의 편향성에 대한 우려의 목소리도 커지고 있다. 태국의 AI/ML 전문기업 플럭서스(Fluxus)가 발표한 새로운 연구에…

Generative AI: Differentiating disruptors from the disrupted

AI 동영상의 ‘진짜’ 실력은 누가, 어떻게 평가할까?

11월 7, 2024

최근 오픈AI의 소라(Sora)와 메타의 무비젠(MovieGen)과 같은 혁신적인 AI 동영상 생성 모델이 등장하면서, AI가 만드는 동영상의 품질을 어떻게 평가할 것인가에 대한 논의가 활발히 이루어지고 있다.…

2024 뤼튼 유저 리포트

화요일 오후 3시, AI가 가장 바쁜 시간대의 비밀

11월 6, 2024

대한민국 대표 소비자 인공지능(Consumer AI) 서비스 뤼튼이 월간 활성 이용자수(MAU) 500만 명을 돌파하며 새로운 이정표를 세웠다. 이는 대한민국 국민 10명 중 1명이 뤼튼을 사용하고…

InkSight: Offline-to-Online Handwriting Conversion by Learning to Read and Write

구글, AI로 손글씨 완벽 디지털화…스마트펜 없이도 필기 스타일 그대로 보존

11월 6, 2024

구글(Google)이 일반 카메라로 촬영한 손글씨를 디지털 잉크(Digital Ink)로 변환하는 혁신적인 AI 기술을 공개했다. ‘잉크사이트(InkSight)’로 명명된 이 기술은 특별한 장비 없이도 손글씨의 필체와 펜의 움직임까지…

ReSpAct: Reasoning, Speaking, and Acting Towards Building Large Language Model-Based Conversational AI Agents

LLM 기반 AI, 사용자와의 ‘대화’로 문제해결 능력 2배 높였다

11월 6, 2024

일리노이 대학교 연구진이 AI가 사용자와의 실시간 소통을 통해 문제해결 능력을 대폭 향상시킬 수 있는 새로운 프레임워크 ‘ReSpAct’를 개발했다. 이 프레임워크는 기존 AI 에이전트들이 가진…

Online images amplify gender bias

온라인 이미지, 텍스트보다 성 편향 더 심각…구글 이미지 검색 결과에서 여성 대표성 크게 부족

11월 5, 2024

디지털 시대에 접어들면서 사람들의 정보 소비 패턴이 급격히 변화하고 있다. 미국 예술과학원의 조사에 따르면, 사람들의 독서 시간은 지속적으로 감소하는 반면 이미지 콘텐츠 소비는 증가하는…

TableGPT2: A Large Multimodal Model with Tabular Data Integration

“전 세계 데이터 70%는 테이블 형태” … TableGPT2, AI의 ‘데이터 맹점’ 해결한다

11월 5, 2024

저장대학(Zhejiang University) 연구진이 개발한 TableGPT2가 공개되었다. 전 세계 데이터의 약 70%가 데이터베이스나 스프레드시트에 저장된 구조화된 테이블 형태로 존재하지만, 기존 AI 모델들은 이러한 데이터를 효과적으로…

Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4

AI 모델과의 소통을 위한 ’26가지 원칙’ 공개… “더 나은 프롬프트 작성의 핵심은 구체성”

11월 5, 2024

인공지능 대화 모델과의 소통이 일상화되면서 ‘프롬프트 엔지니어링’의 중요성이 날로 커지고 있다. 모하메드 빈 자예드 AI 대학교(MBZUAI) 연구팀이 AI 모델과의 효과적인 소통을 위한 26가지 핵심…

LG CNS, Elasticsearch와 AI 검색 모델 통합으로 검색 정확도 고도화하다

LG CNS, AI 검색 알고리즘과 엘라스틱서치 결합해 검색 정확도 95% 달성

11월 5, 2024

LG CNS가 자체 개발한 KeyLook AI 검색 알고리즘이 엘라스틱서치(Elasticsearch)와의 통합을 통해 괄목할만한 성과를 거뒀다. 검색증강생성(RAG) 시스템에 엘라스틱서치를 도입한 결과, 검색 정확도가 기존 75%에서 95%로…

Detection and Measurement of Syntactic Templates in Generated Text

MIT, ‘GPT-4처럼 생각하는’ 범용 로봇 학습법 개발…기존보다 20% 성능↑

11월 4, 2024

MIT 연구진이 범용 로봇 개발을 위한 획기적인 학습 방법을 개발했다. 대규모 언어모델(Large Language Model)에서 영감을 받은 이 기술은 다양한 출처의 데이터를 통합해 로봇에게 새로운…

Detection and Measurement of Syntactic Templates in Generated Text

AI 생성 텍스트의 ‘문법적 패턴’ 발견…노스이스턴대 연구진, 새로운 탐지 방법 제시

11월 4, 2024

인공지능이 작성한 글을 식별하는 것은 점점 더 어려워지고 있다. 최신 AI 언어모델들은 매우 자연스러운 텍스트를 생성할 수 있지만, 여전히 미묘한 차이가 존재한다. 노스이스턴대학교(Northeastern University)…

OmniParser for Pure Vision Based GUI Agent

마이크로소프트의 혁신, GUI 이해하는 AI 도구 ‘옴니파서’ 공개…GPT-4V 성능 한계 돌파

10월 28, 2024

마이크로소프트가 순수 컴퓨터 비전 기술만으로 사용자 인터페이스(UI)의 모든 상호작용 요소를 정확하게 인식하고 처리할 수 있는 ‘옴니파서(OmniParser)’를 개발했다. 이는 GPT-4V와 같은 대규모 시각언어 모델의 UI…

The Ultimate Guide to Fine-Tuning LLMs from Basics to Breakthroughs: An Exhaustive Review of Technologies, Research, Best Practices, Applied Research Challenges and Opportunities

AI 혁신을 이끄는 7단계 파인튜닝 전략

10월 25, 2024

대규모 언어 모델(LLM) 분야가 급속도로 발전하면서 파인튜닝 기술이 AI 응용의 핵심으로 부상하고 있다. 더블린 대학교 연구진이 발표한 최신 보고서는 LLM 파인튜닝의 전체 프로세스를 체계적으로…

"LLMS KNOW MORE THAN THEY SHOW: ON THE INTRINSIC REPRESENTATION OF LLM HALLUCINATIONS"

LLM, 실수할 때도 정답을 알고 있다…내부 표현 분석으로 밝혀진 흥미로운 발견

10월 23, 2024

대형 언어모델(Large Language Model, LLM)이 잘못된 답변을 생성할 때도 내부적으로는 정답을 알고 있다는 흥미로운 연구 결과가 발표됐다. 테크니온 공대와 구글 리서치, 애플 연구진이 공동으로…

DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data

딥시크, 대규모 합성 데이터로 AI의 수학 증명 능력 대폭 강화

10월 22, 2024

현대 수학의 증명이 점점 복잡해지면서 동료 평가 과정에서도 오류를 발견하기 어려워지고 있다. 이러한 문제를 해결하기 위해 린(Lean), 이자벨(Isabelle), 코크(Coq) 등의 형식 수학 언어가 개발됐지만,…

COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act

EU AI법 대응 첫 기술평가 프레임워크 ‘COMPL-AI’ 공개…12개 AI 모델 준수 여부 검증

10월 22, 2024

ETH 취리히와 INSAIT 소피아 대학 연구진이 EU AI법을 기술적으로 해석하고 이를 평가할 수 있는 최초의 종합적인 프레임워크 ‘COMPL-AI’를 개발했다. 이 프레임워크는 생성형 AI의 성능과…

Is In-Context Learning Sufficient for Instruction Following in LLMs?

생성형 AI의 학습능력 한계점 밝혀진다…맥락학습만으로는 역부족

10월 22, 2024

최근 EPFL 연구진은 생성형 AI 모델의 맥락학습(In-context Learning, ICL) 능력에 대한 광범위한 연구를 통해, ICL만으로는 모델의 지시사항 수행 능력을 최적화하는 데 한계가 있다는 사실을…

Adoption of Generative AI by Academic Biomedical Researchers

생성형 AI, 생명의학 연구 혁신의 열쇠될까… 연구자들 “기대 반 우려 반”

10월 18, 2024

ChatGPT로 대표되는 생성형 AI(인공지능)가 학계 전반에 큰 파장을 일으키고 있는 가운데, 생명의학 분야 연구자들의 반응에 관심이 쏠리고 있다. 최근 이타카 S+R(Ithaka S+R)이 실시한 대규모…

Rewarding Progress: Scaling Automated Process Verifiers for LLM Reasoning

Google DeepMind, AI 추론 능력 향상을 위한 ‘프로세스 어드밴티지 검증기’ 개발

10월 16, 2024

Google DeepMind 연구진이 대규모 언어 모델(LLM)의 추론 능력을 향상시키기 위한 새로운 방법론인 ‘프로세스 어드밴티지 검증기(Process Advantage Verifier, PAV)’를 개발했다. 이 연구는 LLM의 다단계 추론…

First-Person Fairness in Chatbots

OpenAI, 챗봇의 ‘일인칭 공정성’ 연구 결과 발표 – 이름 기반 편향 평가 방법론 제시

10월 15, 2024

OpenAI 연구진이 ChatGPT와 같은 대화형 AI 시스템에서 사용자 간 공정성을 평가하고 개선하기 위한 새로운 방법론을 제시했다. ‘일인칭 공정성(First-Person Fairness)’이라 명명된 이 접근법은 챗봇과 직접…

Scalable and Domain-General Abstractive Proposition Segmentation

Google DeepMind, 확장 가능하고 도메인 독립적인 추상적 명제 분할 기술 개발

10월 15, 2024

Google DeepMind 연구진이 텍스트를 의미 단위로 분할하는 ‘추상적 명제 분할(Abstractive Proposition Segmentation, APS)’ 기술의 획기적인 발전을 이뤄냈다. 이 기술은 문서를 단순히 문장 단위로 나누는…

Diversity-Rewarded CFG Distillation

생성 AI의 품질과 다양성을 동시에 높이는 ‘다양성 보상 CFG 증류’ 기법 개발

10월 15, 2024

Google DeepMind 연구진이 생성 AI 모델의 품질과 다양성을 동시에 향상시키는 새로운 기법인 ‘다양성 보상 CFG 증류(Diversity-Rewarded CFG Distillation)’를 개발했다. 이 기법은 기존 생성 AI…

GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models

애플, “대규모 언어 모델의 수학적 추론 능력에 한계 있어”

10월 14, 2024

대규모 언어 모델(LLM)의 수학적 추론 능력에 상당한 한계가 있다는 연구 결과가 나왔다. 애플 연구팀이 발표한 ‘GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large…

AI Report 언어 모델 연구 - 31 중 9 번째 페이지 - AI매터스