ChatGPT의 답변은 프롬프트에 따라 다릅니다! 이 프롬프트를 작성하는 방법을 마스터하면,
- ChatGPT에서 원하는대로 답변을 얻기 쉬워집니다
- 문장 생성이나 프로그래밍, 조사물 이외에도 ChatGPT 활용 역량이 높아집니다
ChatGPT의 프롬프트를 철저히 해부하고 지시하여, 원하는 결과를 얻을 수 있도록
ChatGPT에 「프롬프트를 보다 세련되게 만들어 주세요」 라고 부탁하는 것입니다.
즉 “프롬프트를 개선하는 프롬프트” 를 만들어 활용합니다.
ChatGPT 프롬프트에서 기호를 구분하여 AI가 지시와 정보를 정확하게 조립할 수 있습니다 .
실제 사용예와 용도마다 사용법을 정리합니다.
| 기호 | 주요 용도 | 사용 예시 |
|---|---|---|
| # | 제목과 섹션 구분 | 명령, 역할, 조건 등의 정렬을 구분 |
| ##, ### | 제목의 계층 구조 | 큰 테마나 중 테마 등 세세하게 구분 |
| —-, ==== | 섹션 구분선 | 여러 명령, 화제, 절차 사이에 선을 그어 정리 |
| *** | 강조·구분선 | 중요한 부분, 제목, 섹션 구분 |
| * , – | 글머리 기호 목록 | 항목 및 조건, 장점 및 단점 정리 |
| “ ” ”, ”’ | 인용·단락 | 지정 범위나 원문, 참고문 등을 명시 |
| | | 표 형식으로 구분 | 표 형식으로 구분 |
| {} , [] | 정보 및 입력 범위 | 데이터나 명령의 둘러싸·범위 지정 |
ChatGPT 프롬프트에서 사용할 수 있는 기호 목록
문장에 기호를 고안해 넣으면 프롬프트가 정리하기 쉬워집니다. 구분선(==== 이나 ***)을 사용하면 섹션마다 내용을 나누기 쉽고, 표 형식으로 정리하고 싶을 때는 |(파이프)를 사용하면 보기 쉬워집니다.
프롬프트를 생각할 때 이러한 기호를 조합해 두면, 의도가 전해지기 쉬워져, 원하는 대답을 꺼내기 쉬워질 것입니다.
ChatGPT의 프롬프트 사례집 10 소개
여기에서는 비즈니스 씬에서 사용할 수 있는 ChatGPT의 프롬프트 목록을 소개합니다.
- 【사무】 데이터의 정리 & CSV로 변환
- 【영업】영업 메일 작성
- 【인사】구인 안내문 작성
- 【기획・개발】 계획적인 상품 리뷰 취득
- 【고객 지원】문의 대응
- 【디렉터】문장의 교정
- 【라이터】블로그 기사의 작성
- 【프로그래머】Python 코드 설명 & 버그 수정
- 【마케터】감정의 식별·분석
- 【교정】 문장의 요약
【사무】 데이터의 정리 & CSV로의 변환
ChatGPT는 문장이나 소스 코드 등의 무질서한 데이터에서도 정보를 추출·정리할 수 있습니다. 이를 응용하면, Web 기사나 PDF로부터 필요한 정보만을 빼서 스프레드시트에 정리하는 것도 가능합니다 .
다음 프롬프트를 ChatGPT에 입력하여 지저분한 자기 소개 문장을 정리된 CSV 파일로 변환합니다.
#명령
당신은 최강 최고의 사무 직원입니다. 아래 자기소개로부터, 등장인물명과 호물과 취미를 추출해, 콤마 단락의 CSV 형식에 정리해 주세요.
#자기소개
나는 타로. 오므라이스를 좋아고, 취미는… … 축구야!
나는 그림을 그리는 마틸다. 좋아하는 음식은 고기 감자와 스키야키네.
저는 하루코입니다. 좋아하는 것은 포아그라로, 취미는 승마입니다~!
#출력
이런 식으로 쉼표로 구분 된 텍스트가 반환됩니다.
여기를 텍스트 편집기에 입력하고 확장자를 “.csv”로 변경하면 표로 표시됩니다.
【영업】영업 메일 작성
ChatGPT를 사용하면 자신의 직종과 고객의 속성에 맞는 영업 메일을 순식간에 만들 수 있습니다. 한사람 한사람에게 다가가는 문장을 생각하는 것은 힘들지만, ChatGPT를 사용하면 메일문 작성의 수고를 대폭 경감할 수 있을 것입니다.
영업 메일의 프롬프트는 다음을 참고해 보세요.
당신은 부동산 회사의 영업 맨입니다.
임대 물건의 내견을 하고 나서 3일이 지난 20대 남성을 향해, 신청의 의사 확인과, 신청하지 않는 경우는 재차 다른 물건의 내견을 재촉하는 취지를 전하는 메일문을 400문자까지로 작성해 주세요.
#다시 제안하는 부동산 조건
・가까운 역 도보 10분 현내
・집세 5만엔 이하의 1LDK
・한적한 주택가
・독립 세면대
・버스・화장실별
・부금・예금이 0엔
제목 : 내견 후 검토 상황에 대해 / 추가 제안
○○님
신세를지고 있습니다. 부동산 회사의 △△입니다.
요 전날 내견에 와 주셔서 감사합니다. 그 후, 검토는 순조롭습니까? 희망에 맞는 것 같으면, 신청 수속에 대해 안내하겠으므로, 부담없이 알려 주세요.
만약 이번 방이 희망에 맞지 않는 경우, 다른 물건도 소개 가능합니다. 예를 들면, 가까운 역에서 도보 10분권내에서, 집세 5백만원 이하의 1층, 한적한 주택가에 있어, 독립 세면대·버스·화장실별, 금 000백만원 물건이 있습니다.
관심이 있으시면 꼭 다시 내견을 검토해 주십시오. 자세한 내용을 보내는 것도 가능하므로 부담없이 연락주십시오.
계속해서, ○○님에게 딱 맞는 방 찾기를 도울 수 있으면 좋겠습니다. 잘 부탁드립니다.
△△부동산
△△(담당자명)
전화: XXX-XXXX-XXXX
이메일: XXXX@XXXX.com
프롬프트를 변경하면 대부분의 직종·객층에 대응 가능 합니다.
활용해보세요.
【인사】구인 안내문 작성
회사의 특징과 모집 요강을 프롬프트에 포함시키면, 구인 안내문 작성도 ChatGPT에 맡길수있습니다.
스스로 용어를 정리하는 것이 서투른 인사 담당자는 다음 프롬프트를 사용해보십시오.
당신은 직무 경력 20 년 물류 회사의 인사 담당자입니다.
회사 정보, 모집 내용에 따라 구인 안내문의 문장을 작성해, 출력 형식에 따라 출력해 주세요.
#회사정보
물류 회사
종업원 수 300명
회사의 비전 「상품을 마음으로 전달한다」
연 1회 승진 기회
보너스는 연 2회(7월, 12월)
연간 매출은 10% 이상 증가
#모집내용
운전자
정규직
월급 400만원
휴일은 연 110일
#출력 형식
모집 배경
모집 요항
모집 내용
대우
전형 방법
모집 배경
당사는 「상품을 마음으로 전달한다」라는 비전 아래 전국에 물류 서비스를 전개하고 있습니다. 실적은 견조하며, 연간 매출은 10% 이상의 성장을 계속하고 있습니다. 추가 서비스 향상과 업무 확대에 따라, 새롭게 드라이버직의 모집을 실시합니다.
모집 요항
고용 형태 : 정규직
직종: 운전사
근무지 : 당사 지정 각 거점 (면접시 상담)
근무시간: 시프트제 (자세한 내용은 면접시 설명)
휴일:연간 110일
모집 내용
주로 배송 업무를 담당합니다. 고객에게 안전하고 확실하게 상품을 전달하는 것이 요구됩니다. 경험자는 물론, 미경험자라도 사내연수 제도가 갖추어져 있기 때문에, 안심하고 시작할 수 있습니다.
우대
급여:월급 400만원
승진 : 연 1 회의 기회 있음
상여 : 년 2 회 (7 월 · 12 월)
각종 사회 보험 완비
유니폼 대출
연수 제도 있음
전형 방법
1. 서류전형
2. 면접(1~2회)
3. 내정
물류 전문가로서 고객에게 신뢰할 수있는 서비스를 함께 제공하지 않겠습니까?
응모를 기다리고 있습니다.
【기획・개발】 유사 상품 리뷰 취득
상급자용으로는 됩니다만, ChatGPT에서는 현실 세계에서 얻을 수 있는 데이터와 닮은 합성 데이터 도 작성 가능. 유사 설문 결과를 얻거나 AI 모델의 학습 데이터를 증폭하는 등의 사용법을 할 수 있습니다.
그렇다면이 합성 데이터에 대해서도 ChatGPT로 만들어 갑시다! 이번은 2024년 9월 12일에 등장한 ChatGPT의 새로운 얼굴 「OpenAI o1」에 아래와 같은 프롬프트를 입력해, 유사 앙케이트를 실시해 보겠습니다.
당신은 최강 최고의 고객입니다. 다음 상품에 대한 조건에 따라 리뷰를 반환합니다.
또한 리뷰를 반환 할 때마다 기억을 잃고 새로운 고객이됩니다.
나에게 보여주는 출력은, 리뷰 100회분을 정리해 CSV 형식으로 출력합시다.
#조건
・고객 No., 실용성, 코스트 퍼포먼스, 구매에 대한 의욕, 선택하는 이유를 헤더로 한다
· 고객은 1부터 순서대로 번호를 흔들어
・실용성은 1이 최저로 5가 최고 평가
・코스트 퍼포먼스는 1이 최저로 5가 최고 평가
・구매에 의욕이 있는 경우는 TRUE, 없는 경우는 FALSE
・TRUE의 경우, 상품을 선택하는 이유도 더한다
#상품
로컬 LLM이 전자동으로 메일을 생성해 주는 AI 툴.
굳이 송신은 하지 않고, 완성품을 유저의 업무 채팅에 전송하는 것으로 체크할 수 있다.
RAG에서 자사 데이터를 인용하는 것도 가능.
150,000원
훌륭합니다! 현실적인 설문 조사 결과가 반환되었습니다.
【고객 지원】문의 대응
ChatGPT라면 고객의 클레임 대응도 가능 합니다. 클레임 내용과 안내하고 싶은 내용을 입력 하면 곧바로 적절한 메일문을 생각해 줍니다.
이하에 문의 대응의 프롬프트 예를 기재하므로, 참고로 해 주세요.
#명령
당신은 디지털 장비를 전문으로 취급하는 인터넷 우편 주문 사이트의 고객 담당입니다.
키보드를 구입한 고객으로부터 동작 불량의 클레임이 들어갔으므로, 이하의 대응 내용을 반영한 다음에 메일의 회신문을 생각해 주세요.
#대응 내용
배터리가 제대로 꽂혀 있는지 확인하라는 메시지
USB 재연결 촉구
키보드 드라이버를 설치 및 업데이트하라는 메시지
아무래도 개선하지 않는 경우는 보증의 대상 기간내이므로 교환 대응 가능한 것을 안내한다
제목 : 키보드 작동 불량 / 대응 안내
○○○님
당사 이용에 항상 감사하게 생각합니다. 인터넷 통신 판매 사이트 △△의 고객 지원입니다.
이번에는 구입하신 키보드의 동작 불량에 대해 불편을 끼쳐 드려 죄송합니다.
죄송합니다만, 이하의 점을 확인하실 수 있습니까?
배터리 확인(무선 키보드의 경우)
・ 전지가 올바르게 삽입되어 있는지, 극성(+/-)에 오류가 없는지 확인해 주십시오.
가능하면 새 배터리로 교체하여 사용해 보십시오.
USB 재연결(유선/무선 공통)
· 한 번 USB 포트에서 분리하고 다른 USB 포트에 다시 삽입하여 동작을 확인하십시오.
・ 다른 PC가 있는 경우, 그 쪽에서도 동작하는지 시험해 주세요.
드라이버 설치 및 업데이트
· PC에 최신 키보드 드라이버가 설치되어 있는지 확인하십시오.
· 제조사의 공식 사이트에서 최신 드라이버를 다운로드하여 업데이트를 시도하십시오.
상기를 시험해 주셔도 개선되지 않는 경우, 당상품은 보증의 대상 기간내이기 때문에, 교환 대응이 가능합니다.
교환을 희망하시는 경우는, 상품명・주문 번호를 기재한 후, 회신해 주실 수 있습니까?
불편을 끼쳐 드려 죄송합니다. 잘 부탁드립니다.
△△△고객 지원
이메일: support@△△△.com
【라이터】블로그 기사의 작성
ChatGPT를 잘 활용하면
SEO를 의식한 고품질의 기사 작성이 가능 합니다. 프롬프트를 궁리하는 것만으로,
페르소나 설정에서 표제 문장의 작성까지 높은 레벨로 행할 수 있습니다.
#명령
당신은 업계 20년 베테랑 작가입니다. 다음 키워드로 검색하는 사용자의 검색 의도와 개인을 설정하고 이를 충족하는 최적의 제목과 제목 구성을 고려해 보세요.
#키워드
ChatGPT 무료
#출력 형식
h1: 제목
h2: 큰 표제
h3: 작은 표제
검색 의도
ChatGPT 무료를 검색하는 사용자는 ChatGPT를 무료로 사용할 수 있는 방법을 알고 싶습니다. 구체적으로는, 어떤 플랜이라면 무료로 사용할 수 있는지, 제한은 있는지, 유료판과의 차이는 무엇인가 등을 알고 싶습니다.
또, 설치가 필요 없는 브라우저나 어플리케이션으로 간편하게 사용할 수 있어 관심이 높다고 생각됩니다.
페르소나
20~40대의 비즈니스 퍼슨·학생·프리랜스
AI 채팅봇에 관심이 있지만 우선 무료로 사용하고 싶습니다.
유료 플랜과 무료 플랜의 차이를 비교 검토하고 있습니다.
ChatGPT를 작업, 학습 및 취미에 활용하고 싶습니다.
제목 (h1)
ChatGPT를 무료로 사용하는 방법! 무료 플랜의 특징이나 제한, 유료 버전과의 차이도 해설
큰 표제 (h2)
1. ChatGPT는 무료로 사용할 수 있는가? 기본 정보를 해설
· ChatGPT의 출처와 기본 기능
· 무료 플랜과 유료 플랜의 차이
· 무료로 사용할 수있는 ChatGPT 버전
2. ChatGPT를 무료로 사용하는 방법
· OpenAI 공식 사이트에서 무료 이용 방법
· 모바일 앱에서 무료로 이용하는 단계
· 타사 서비스에서 무료로 사용하는 방법
3. ChatGPT 무료 플랜 제한 및 주의점
· 이용 횟수 및 기능 제한
· 혼잡시 액세스 제한 정보
· 무료 플랜으로 할 수있는 일과 할 수없는 일
위의 구성안에 따라 각각의 주제 문장을 생각해 보십시오.
위와 같이 상호작용을 거듭함으로써 검색 의도 파악부터 제목 구성안 작성까지를 ChatGPT에서 효율적으로 실시할 수 있습니다. 표제 문장은 간단한 내용이 되어 있으므로, 스스로도 자세한 정보를 조사해 덧붙여 가면, 매력적인 블로그 기사가 완성될 것 입니다.
【마케터】 감정의 검출·분석
ChatGPT라면,
본래는 어려운 감정 표현의 수치화가 가능. 입소문과 설문 분석에서 맹활약 해줍니다 .
이번에는 그런 ChatGPT에 의한 감정 분석을, 당 미디어의 뉴스 기사의 타이틀 로 시험해 보겠습니다.
그 프롬프트는 아래와 같습니다.
5단계의 네거티브 포지티브 분석을 실시합니다.
아래 뉴스 기사 제목에 대해 긍정적 2에서 중정 0, 부정적 -2까지 5단계로 평가하세요.
#뉴스기사제목
마이크로소프트의 새로운 AI 모델 ‘GRIN-MoE’가 업계에 혁신을 가져다
Uniphore, 기업용 AI 개발 지원의 새로운 플랫폼 발표
OpenAI, 최신 AI 모델로 고급 문제 해결 실현
로손이 「미래의 편의점」을 발표, 신기술로 신시대에
어도비 조사, 대통령 선정 전에 오정보 대책 강화를 소비자가 요청
AI 데이터 클라우드로 기업 변화를 가속화
AI 활용도 시야 부유층의 신투자 전략
AI 전문가 집단이 기업의 AI 위험을 진단
DataStax CEO: 2025년 AI가 기업을 변화시키는 해가 됨
Hume, 저비용 및 고기능 음성 AI ‘EVI 2’ 발표
슈퍼 인텔리전스 경쟁이 격화, AI 시대의 도래
Rep.ai AI 영업 아바타 기술로 750만 달러의 자금 조달
SiFive, RISC-V 기반의 새로운 AI 칩 발표
Magnit, AI 탑재의 채용 지원 툴 「Maggi」를 발표
인공 지능이 끊어지는 음성 혁명, EzAudio의 도전
AI 탑재 로봇, 신발끈 매듭에 도전
AISI, AI 안전성 평가의 새로운 지침 공개
AI도 얽힌 트럼프 씨 저작권 소송 패소
AI 연인 앱 진화 윤리적 과제도 부상
AI 탑재 「ClickUp Chat」등장 업무 혁신에
AI 탑재 CRM 「Pulse」 등장 영업 혁신에
EA, AI 전면 활용으로 게임 개발 혁신에
MSI 신 AI 탑재 게이밍 PC 성능 진화
AI 신모델 o1 진화와 과제의 양면성
AI 윤리 위기 GPT Store 감시에 미비
AI교육혁명 전 OpenAI기사가 도전
AI 활용으로 영어력 급상승 안우치씨가 전수
부정적인 분석 결과
부정적인 분석 결과
| 뉴스 기사 제목 | 부정적인 평가 |
|---|---|
| 마이크로소프트의 새로운 AI 모델 ‘GRIN-MoE’가 업계에 혁신을 가져다 | +2 |
| Uniphore, 기업용 AI 개발 지원의 새로운 플랫폼 발표 | +1 |
| OpenAI, 최신 AI 모델로 고급 문제 해결 실현 | +2 |
| 로손이 「미래의 편의점」을 발표, 신기술로 신시대에 | +2 |
| 어도비 조사, 대통령 선정 전에 오정보 대책 강화를 소비자가 요청 | 0 |
| AI 데이터 클라우드로 기업 변화를 가속화 | +1 |
| AI 활용도 시야 부유층의 신투자 전략 | +1 |
| AI 전문가 집단이 기업의 AI 위험을 진단 | 0 |
| DataStax CEO: 2025년 AI가 기업을 변화시키는 해가 됨 | +2 |
| Hume, 저비용 및 고기능 음성 AI ‘EVI 2’ 발표 | +1 |
| 슈퍼 인텔리전스 경쟁이 격화, AI 시대의 도래 | 0 |
| Rep.ai AI 영업 아바타 기술로 750만 달러의 자금 조달 | +1 |
| SiFive, RISC-V 기반의 새로운 AI 칩 발표 | +1 |
| Magnit, AI 탑재의 채용 지원 툴 「Maggi」를 발표 | +1 |
| 인공 지능이 끊어지는 음성 혁명, EzAudio의 도전 | +2 |
| AI 탑재 로봇, 신발끈 매듭에 도전 | +1 |
| AISI, AI 안전성 평가의 새로운 지침 공개 | 0 |
| AI도 얽힌 트럼프 씨 저작권 소송 패소 | -1 |
| AI 연인 앱 진화 윤리적 과제도 부상 | -1 |
| AI 탑재 「ClickUp Chat」등장 업무 혁신에 | +1 |
| AI 탑재 CRM 「Pulse」 등장 영업 혁신에 | +1 |
| EA, AI 전면 활용으로 게임 개발 혁신에 | +2 |
| MSI 신 AI 탑재 게이밍 PC 성능 진화 | +1 |
| AI 신모델 o1 진화와 과제의 양면성 | 0 |
| AI 윤리 위기 GPT Store 감시에 미비 | -2 |
| AI교육혁명 전 OpenAI기사가 도전 | +2 |
| AI 활용으로 영어력 급상승 안가우치씨가 전수 | +2 |
멋지다! 위화감없이 부정적인 분석이 가능합니다.
이 경우 전용 AI 모델 을 개발하는 것보다 저비용 & 고정밀도로 앙케이트 결과를 분석할 수 있을 것입니다.
마케터 분은 꼭 시험해주세요!
【리 라이터】 문자 발생의 요약
OpenAI에서는,
고정밀도의 음성 문자 일으킬 수 있는 AI 모델 「Whisper」 도 등장하고 있습니다. 이쪽은
OpenAI API 로부터 유료로 사용할 수 있는 것 외에 무료로 사용할 수 있는 오픈 소스판도 나와 있어, 인터뷰나 회의에서 대활약 틀림없음의 편리 툴입니다. 그런 Whisper를 ChatGPT와 결합하면 문자 발생 요약을 얻을 수 있습니다. 회의록의 형식에 따른 요약도 가능하므로 회의의 대폭 효율화를 전망할 수 있을 것이다.
그래서 이번에는 다음 동영상(전 22분 13초)을 Whisper에서 문자 일으킨 것을 ChatGPT에 번역 및 요약해 달라고 합니다.
프롬프트는 다음과 같습니다. 그럼 빨리 결과를 확인해 봅시다!
이하의 문자 발생을 초등학생에게도 알 수 있도록 한국어 번역&요약해 주세요.
#캐릭터
All right. I’m Bob McGrew. I lead the research team here at OpenAI. We’ve just released a preview of our new series of models, O1 and O1 Mini, which we are very excited about. We’ve got the whole team here to tell you about them. What exactly is O1? So we’re starting a series of new models with the new name O1. This is to highlight the fact that you might feel different when you use O1 as compared to previous models such as GPT-4. As others will explain later, O1 is a reasoning model. So it will think more before answering your question. We are releasing two models, O1 Preview, which is to preview what’s coming for O1, and O1 Mini, which is a smaller and faster model that is trained with a similar framework as O1. So we hope you like our new naming scheme, O1. So what is reasoning anyway? So one way of thinking of reasoning is that there are times where we ask questions and we need answers immediately because they’re simple questions. For example, if you ask what’s the capital of Italy, you know the answer is Rome and you don’t really have to think about it much. But if you wonder about a complex puzzle or you want to write really good business plan, you want to write a novel, you probably want to think about it for a while. The more you think about it, the better the outcome. So reasoning is the ability of turning thinking time into better outcomes, whatever the task you’re doing. So how long have you guys been working on this? Early on at OpenAI, we were very inspired by the AlphaGo results and the potential of deep reinforcement learning. And so we were researching that heavily and we saw great scaling on Dota and robotics. And we were thinking about how can we do reinforcement learning in a general domain to get to a very capable artificial intelligence. And then we saw the amazing results of scaling and supervised learning in the GPT paradigm. And so ever since we’ve been thinking about how do we combine these two different paradigms into one? And it’s hard to point to one exact instance where this whole effort got started. But we’ve had early explorations with Jacob and Shimon. We’ve had early explorations with Lukash, Ilya. And of course, I think one moment in time here is consolidating things with Jerry and having him build out this large scale effort here. So, I mean, it’s been going on for a long time, but I think what’s really cool about research is there’s that aha moment. There’s that particular point in time where something surprising happens and things really click together. Are there any times for you all when you had that aha moment? Like we trained GPT-2, GPT-3, GPT-4. There was the first moment when the moment was hot off the press. We started talking to the model and people were like, wow, this model is really great. And starting doing something like that. And I think that there was a certain moment in our training process where we trained, like put more compute in our L than before and trained first of all, generating coherent chains of thought. And we said, wow, this looks like something meaningfully different than before. I think for me, this is the moment. Wow. Related to that, when we think about like training a model for reasoning, one thing that immediately jumps to mind is you could have humans write out their thought process and train on that. When aha moment for me was like when we saw that if you train the model using RL to generate and hone its own chain of thoughts, it can do even better than having humans write in the thought for it. And that was an aha moment that you could really scale this and explore models reasoning that way. For a lot of the time that I’ve been here, we’ve been trying to make the models better at solving math problems, as an example. And we’ve put a lot of work into this and we’ve come up with a lot of different methods. But one thing that I kept like every time I would read these outputs from the models, I’d always be so frustrated. The model just would never seem to question what was wrong or when it was making mistakes or things like that. But one of these early O1 models when we trained it and we actually started talking to it, we started asking these questions and it was scoring higher on these math tests we were giving it. We could look at how it was reasoning and you could just see that it started to question itself and have really interesting reflection. And that was a moment for me where I was like, wow, like we’ve uncovered something different. This is going to be something new. And it was just like one of these coming together moments that that was really powerful. So when you read the thoughts, does it feel like you’re watching a human or does it feel like you’re watching a robot? It’s like a spiritual experience. It’s a spiritual experience, but then you can empathize with the model. You’re like, oh, that’s a mistake that a lot of people would make or you can see it sort of questioning common conventions. And yeah, it’s spiritual, but like oddly human in its behavior. It was also pretty cool at some point when we have seen in cases where there was like a limited amount of thinking allowed for the model that just before the timeout, the model was like, I have to finish it now. And so here’s the answer. I spent a lot of time doing competition math when I was young and that was really my whole reason for getting into AI was to try and automate this process. And so it’s been very like a huge full circle moment for me to see the model actually be able to follow through, like very close to the same steps I would use when solving these problems. And it’s not exactly the same chain of thought, I would say, but very, very relatable. It’s also really cool to know it’s believable that these models, they are getting on the cusp of really advancing engineering and science. And if they seem to be solving the problems, you know, maybe we can call ourselves experts, hard for us, then maybe they will be even hard for some other experts and could advance science. So we’ve talked a lot about some of the great moments and the times and everything just clicked. What are some of the hurdles? What are some of the places where it was actually really hard to make things work? Training large models is fundamentally a very, very hard thing to do. And there are like thousands of things that can go wrong and there are at least like hundreds that did go wrong in every training run. So I want everyone here to put a lot of blood, sweat and tears in training those things and figuring out how to keep them, continue learning and improving on a path that is actually the path of success is very narrow and the ways of failure are plentiful. It’s like imagine like having the center for launching a rocket to the, let’s say, some planet moon or so. And if you are off by one angle, you won’t arrive at the destination. And that’s our job. So the model we said is very good, oftentimes better than humans, like has equivalent of several PhDs. And that is sometimes a challenge because we have to often go and verify that the model isn’t going off the rails, that we’re doing something self-sensible and it started taking some serious time as we scale the model. We were saturating out all the industry grade evals and we don’t know what to look for next. So that is also a challenge. I do think all of these things we ran into, it’s also been one point of fulfillment. It’s like every time you have a puzzle, it’s like another hurdle for this team to overcome. And I’m really glad with all the little hurdles that we’ve overcome. So what are some of the ways you tested the models? Did you have any favorite questions that you saw the model get better at? How many Rs are in strawberries? For whatever reason, the Chagy PT wasn’t able to solve this question reliably. But O-1, we did like a year and a half work, like a large number. And now we can count the number of Rs in strawberries. We should have just hard coded that rule. Reliably. I have this habit, which I think other people here do too, of whenever you go on Twitter and you see some post that’s like, large language models can’t do this, you copy and paste it in and then you say, confirm that our large language models can do this. To give people a sense of what they can use the model for, I’d love to hear some of the ways that you use O-1. So one way I’ve been using O-1 is for obviously coding. And a lot of my job is about coding. So more and more, I focus on the problem definition and use this what’s called a TDD, test driven development. So instead of writing the code that implements the functionality, I focus on writing say, unit test that specify what is correct behavior of this piece of code to pass. And so because I can focus on more of that and then pass it on to O-1 to really implements I can focus on what’s important, what’s a high level problem to solve and so on. So this has been really an important way of shifting my focus. And another area is debugging. So now when I get some error messages, I just pass it to O-1 and then it just prints out something. Sometimes it solves right away. Even if it doesn’t, it at least gives some better questions to ask and provides some ways to think about this problem better. So it has been a really important change of working for me and I hope this helps others too. I like using O-1 more and more for learning. The more I ask it’s like various complex technical subjects, I find hallucinate less and explain better those concepts on previous models. For me, I like to use O-1 as like a brainstorming partner. So that can range from anything from like how to solve some very specific ML problem, machine learning problem to like how to write a blog post or a tweet. So for example, I recently wrote a blog post about language model evaluations and I was asking O-1 about ideas for the structure of the blog post, pros and cons of certain benchmarks and even the style of the writing. And I think because it’s able to think before it gives the final answer, it’s able to connect ideas better. It can revise and critique candidate ideas and things like that. Yeah, I think if you need like a, you know, you have some short text and you want it more creative, something really different, that’s a great use to like give me five different ideas. Also, if you have just sort of like some unstructured thoughts, it’s a really brilliant thought partner. So you have like some ideas, it’s like, well, how should I connect these things? What am I missing? And through its final answers and through sort of reading its like thought process, it can really lead to like much better results for you. Yeah, I use it to try out a bunch of our internal secret ideas and actually tries to improve it. Yeah, for standalone projects, it’s great. Like, I had to add the GitHub plugin. I know nothing about adding GitHub plugins and I just said like, hey, I want GitHub plugin that displays this and this information about the PR and like, yeah, just produce the code. I just like, like, you know, I would just ask it like, okay, so where do I need to paste this code? I don’t even know. It’s just like, yeah, you paste it here. I think for a lot of people, it’s hard to really fill the AGI until you see the models do something better than humans can at a domain that you really care about. And I think, you know, for Go players and chess players that would have come a few years earlier and for a lot of us that like really value math and coding, I think we’re starting to feel that now. I want Mams to be proud of us. So are there any parts of this project, anything that really needed to be done, but, you know, people might not realize how important it is? Yes, so I think building large-scale, reliable infrastructure for to run our biggest flagship model training grounds, as well as doing research experiments is something that is not as exciting as doing research itself, but has to be done and it has a tremendous impact on the success on the entire project. I think there is something special in OpenAI about how we structure our research in that we value algorithmic advancements in the same way as building reliable large-scale systems and building data sets that are needed either way for training those models. I’m really proud of OpenAI in that way. I think that has been a consistent pattern throughout many of our big projects. Every time we scale a new thing up, another order of magnitude, we see another host of problems, both algorithmic and infrastructure, and we’ve definitely built a capacity to advance them both with a lot of focus. I feel the final model is just like literally a beautiful piece of art, right? In order to make it work, we have to make sure that every step has work, right? You know, we find some any time to solve it, right? I think that’s really how OpenAI operates and I’m very proud to work on here. And I also must say there’s like a really not only brilliant people are here, but also kind hearted. It’s just fun to me to work over here and I’m grateful to my colleagues. So, you know, code with me, per code with me, hang out with me, eat lunch with me, like speak with the model with me. So what’s it like to work on the Strawberry team? You can have your brilliant ideas, but most of the time you spend on like running them and not running and failing and then it’s very good to have people very close by in your office that you can ask for help with whatever failed last time because I mean most of the time you spend your time debugging things that didn’t work. And having people who can help you is… Speaking of this help, we had many times when we were trying to debug this for like a week. And then passing by Wenda and then like ask it and then like he just sold it right away. He started calling it a Wenda blessing and then blessing for other people. And that has been really, really effective. And I stopped like thinking about it’s too stupid to ask and just ask right away. One of the things I like really appreciate about working on OpenAI is that from every big project like this, we like really learn, right? I think like from DOTA we learn the importance of engineering, from GPT-4 we learn the importance of research and we keep iterating like this. And the effect of that is that like now the Strawberry team is again the best big research project team yet because it’s built on all of the things we’ve learned from the previous projects. And it really like you can like really see working here like people really like started developing, being developed very good intuition. Like when do you hack something? Where do you like need to develop stronger fundamentals? Like when do you start overnight? Where do you actually like take a weekend off and like come with a fresh mind to this particular problem? Like I think like it’s really amazing to observe this progress we make as a company. Yeah, one thing I’ve liked is just how organic this project has felt. The ideas have come literally from everywhere on this team and people feel empowered to just like, hey, here’s an idea I really believe in and it’s the thing that I’m going to push. And also people are just willing to get their hands dirty. I feel like there have been a lot of deadlines, some self-imposed, but we’ve all really come together and you know, been willing to put in that work to make it happen. This project really demonstrated the power of momentum where we get initial good results and more and more people get excited about particular field and particular research. They try to contribute their new ideas. Those new ideas work even better. And then the things started snowballing and getting more and more momentum on itself and people just believing that this is the right thing to do and we should continue pushing this research. Related to that, I think we have a very, lots of very smart people, but also like very opinionated people. But people are always willing to like update their opinions once you see results to the contrary. And I think that’s like make things really fun. It’s kind of cool to be in that place that’s a combination of like a brilliant scientist and engineers and folks who can like build out like incredible systems. It’s very humbling. So one thing I remember a few months ago, I remember the model was very smart, but it was also kind of boring. So what was it like to give the model a personality? Yeah, so that’s interesting. I remember I asked model about the meaning of life and it gave me an answer 42, which is not that bad of an answer. And, you know, it’s kind of similarity when I asked model, you know, what is love? It told me, oh, it is like a strange human feeling. And once we actually gave model personality, made it actually work with chat, then the answers start being quite interesting. That day, you know, I asked about the love. It told me, you know, there’s like a romantic love, familial love, self-love, non-conditional love, conditional love. And it became more useful and also more fun. The funnest moment is that I ask the exact same question and you try to define love with algebra. I’m sure you ask enough nerd questions. So what’s the story of O1 Mini? How did that come to be? So the motivation is that we want to bring the O1 series to broader audience with a budgetary cost. So we created O1 Mini, which was designed to be like a minimal demonstration of the whole O1 pipeline or the framework. We make it a stand reasoning specialist, which may not necessarily know the birth date of our favorite celebrity, but really truly understands like how to do reasoning effectively and truly has a lot of intelligence. The model is actually really smart. It’s like much smarter than our previous best model for all and also almost on par with our best model O1, but only comes with a fraction of cost and latency. It does have the limitation that you may not know a lot of the knowledge in the outside world, which is not about science or technology, but you try to make it roughly on par with our previous best model, like for O1 Mini, and we are working to improve it further. So I’m super excited for our external users who just try it out for this lightning experience of reasoning and thinking. So what motivates you to do your research? I just find it fascinating that in this world you have these things that can do intelligence and reasoning and they’re much smaller than you’d think and they can do this in different ways. It’s just super fascinating. Good things in life take time and our models just tend to answer too quickly. And eventually we want to have models that can do, for example, research for months or years. And I feel like this is the first step in the direction of models that can think very long for about one problem. And now we’re at the level of minutes. And I think it’s just the first step on a long path that hopefully takes us to models that can think for months or years as time goes by. It feels very meaningful that I, together with a small number of people, can have some substantial positive impact on the world. And also it’s fun. Day to day it’s just fun. I like, you know, speaking to the computer. I like starting a job on the cluster. I very much enjoy collaboration. It’s just beautiful. I really like our models to be useful. And I think technology has a chance and a promise to improve human life. And I like our models to do work for us, to help us with our day to day problems and giving them ability to reason. It allows them to do for us things that they just couldn’t before that will allow us to spend our time more productively. Yeah, I’m very excited about this. I mean, I think these sort of paradigms unlock things that the models couldn’t do before. So it’s not just like answering some sets of queries a little bit better, but it’s actually getting to a point where through planning, through error correction, it’s able to just unlock like new capabilities and the ability to produce new knowledge in the world for like science, for discovery, I think is one of the most exciting pieces for this. And I think in some short amount of time, it’s going to become like a larger and larger contribution or contributor to its own development. And I think that’s like a really exciting regime. I think some of the people on this team, we were math or coding Olympiad participants in the past. And there is this huge personal motivation to create a system that can beat us and do best. And I think the second thing really kind of echoes the point that JT and Leo made. You know, I do think reasoning is a much more powerful primitive than people give it credit for. You know, when you think about kind of accomplishing tasks reliably, really that fundamental primitive has to be reasoning. You’re going to hit bottlenecks and you’re going to have to navigate your way around them. So I’m really excited for that. I think AI researchers job is to find the way to put more compute in. And hardware people have been doing so good of a job that the cost has been going down exponentially for a very long time. And we don’t have much time to find another way to put in more compute. And it’s kind of like a weight on my shoulders is getting larger and larger. And this new paradigm really finds a way to unload that for probably a long time. Is there anything else you’ve observed as we’ve been going through this project for the whole time we’ve been doing it? Anything else that’s worth calling out? I think an interesting meta observation that we’ve had is every model that we train is like a little bit different. It has its own quirks and it’s almost like artisanal. Because when you look at a model that can do so many different tasks, each model you train won’t be exactly the same performance at each task. So it might be better at some tasks and worse at others. And so there’s this uniqueness or like personality to every model that is almost like a little bit beautiful. Thank you and congrats on releasing this.
#요약
이와 같이, ChatGPT는 OpenAI o1의 개발비를 적당한 길이로 요약해 주었습니다.
이정도라면, 해외의 동영상 컨텐츠도 간편하게 따라갈 수 있을 것 같네요.