본문 바로가기

카테고리 없음

왜 OpenAI와 Anthropic 연구자들은 같은 출신이 많은가

왜 OpenAI와 Anthropic 연구자들은 같은 출신이 많은가
AI 산업 분석 · 2025년 · Tech Genealogy Series
심층 분석

왜 OpenAI와 Anthropic
연구자들은 같은 출신이 많은가

AI 안전성 논쟁에서 시작된 연구자 분화의 계보

AI 산업 분석 · 약 10분 소요 · OpenAI · Anthropic · 안전성

두 회사의 이름이 나란히 언급될 때마다 이런 질문이 따라온다. 어째서 이 두 경쟁사에는 같은 논문을 공저하고, 같은 연구실에서 성장한 연구자들이 양쪽에 분포해 있을까. 답은 역사 속에 있다 — Anthropic은 OpenAI에서 갈라져 나온 조직이고, 그 분화는 단순한 이직이 아닌 철학적 균열의 결과였다.

배경

하나의 모교에서 출발한 두 회사

2021년, Anthropic이 창립될 때 핵심 멤버 7명은 모두 OpenAI 출신이었다. 회사를 이끌 다리오 아모데이(Dario Amodei)는 OpenAI의 연구 부사장이었고, 그의 여동생 다니엘라 아모데이(Daniela Amodei)는 운영 부사장이었다. 이들이 데려온 팀에는 Jack Clark(정책 총괄), Chris Olah(해석 가능성 연구), Jared Kaplan(스케일링 법칙 연구자) 등 AI 안전 분야의 핵심 인물들이 포함돼 있었다.

즉 Anthropic은 OpenAI라는 모교에서 분리된 분파다. 두 회사의 연구자 계보가 겹치는 이유는 이미 여기서 구조적으로 결정돼 있다.

창립 팀 구성

Anthropic 창립 멤버 7인은 전원 OpenAI 출신이었으며, 이들은 주로 OpenAI 내 AI 안전 및 정렬(alignment) 연구 그룹에 속해 있던 인물들이다. 나중에 합류한 연구자들 또한 같은 학문 공동체를 공유한다.

창립 주요 연구자들

Dario Amodei
OpenAI VP Research → Anthropic CEO
창립자
Daniela Amodei
OpenAI VP Operations → Anthropic President
창립자
Chris Olah
해석 가능성 연구 선구자
공동창립
Jared Kaplan
스케일링 법칙 공동 발견자
공동창립
Jack Clark
OpenAI 정책 총괄 → AI Index 창설
공동창립
Tom Brown
GPT-3 수석 저자
공동창립
균열의 기원

상업화의 속도, 안전성의 무게

분화의 씨앗은 GPT-2와 GPT-3가 만들어지는 과정에서 뿌려졌다. 모델이 커질수록 능력도 비약적으로 향상됐고, OpenAI 내부에서는 이 스케일링의 잠재력에 흥분하는 사람들과 그것이 가져올 위험을 걱정하는 사람들 사이에 긴장이 쌓이기 시작했다.

GPT-2와 GPT-3를 만든 이후, 우리 중 일부는 두 가지를 강하게 믿게 됐습니다. 첫째, 더 많은 컴퓨팅을 투입할수록 모델은 계속 좋아진다는 것. 둘째, 스케일링만으로는 부족하고 정렬이 반드시 필요하다는 것. 우리는 이 두 아이디어를 믿는 사람들끼리 신뢰를 쌓았고, 그래서 함께 회사를 시작했습니다.

— 다리오 아모데이, Anthropic CEO

다리오 아모데이가 묘사하는 이 내부 분열은, 단순히 "빠르게 가자" vs "천천히 가자"의 대립이 아니었다. 핵심은 더 깊은 곳에 있었다. 스케일링이 능력을 키워준다 해도, 그 능력이 인간의 의도와 일치하도록 만드는 별도의 기술적 작업 — 정렬 — 이 없으면, 더 강력한 모델은 더 위험한 모델일 수 있다는 신념이었다.

2019년 Microsoft와의 협력이 본격화되면서 OpenAI의 방향은 명확해졌다. 상업적 제품을 빠르게 내놓고, 투자자와 파트너사의 기대에 부응하는 것. 안전 연구를 최우선으로 두려는 연구자들에게 이 방향은 점점 견디기 어려운 것이었다.

분화의 역사

두 차례의 이탈: 타임라인

2019
GPT-2 출시 — 스케일링 가능성 확인
OpenAI 내부에서 대형 언어 모델의 잠재력이 확실해지고, 동시에 안전성에 대한 논쟁이 수면 위로 올라오기 시작한다.
2020
GPT-3 출시 — 상업화 대 안전의 갈등 심화
Microsoft와의 협력이 심화되면서 OpenAI의 상업적 지향이 확정된다. 안전 연구자들의 불만이 누적된다.
2020–2021
다리오 아모데이 등 7인 퇴사 → Anthropic 창립
안전성을 회사의 핵심 원칙으로 삼는 새 조직이 1억 2,400만 달러의 시리즈 A와 함께 출범한다. 공공이익법인(PBC)으로 설립됐다는 점이 상징적이다.
2022
Constitutional AI 발표
안전성을 모델의 학습 원리에 내재화하는 새로운 훈련 방법론. RLHF에 의존하는 대신, AI 스스로 원칙(헌법)에 따라 자신의 응답을 평가하게 한다.
2024
Jan Leike, John Schulman, Durk Kingma 합류
OpenAI의 Superalignment 팀 해체 이후, 핵심 안전 연구자들이 Anthropic으로 이동하는 2차 물결이 일어난다.
2차 이탈

2024년: 같은 이유로 반복된 이동

1차 분화가 창립으로 이어진 이야기라면, 2024년의 이탈은 그 이야기가 여전히 현재진행형임을 보여주는 사건이었다. Jan Leike는 OpenAI를 떠나면서 조직의 "안전 문화와 프로세스가 뒷전으로 밀렸다"고 공개적으로 밝혔다. 그가 그 직후 향한 곳은 Anthropic이었다.

같은 해, OpenAI 공동창업자 중 한 명인 John Schulman도 Anthropic으로 이동했다. 그의 말은 역설적이었다. "AI 정렬에 더 깊이 집중하고, 실습 기술 업무로 돌아가고 싶다." OpenAI에서 정렬 연구를 할 수 없어서가 아니라, 더 잘할 수 있는 환경을 선택했다는 것이다.

두 사람의 이동이 같은 시기에 일어난 것은 우연이 아니다. OpenAI가 2024년 초 Superalignment 팀 — 초인적 AI 시스템을 인간이 통제할 수 있도록 연구하는 그룹 — 을 해체한 것이 직접적인 배경이었다.

패턴의 반복

2021년과 2024년, 두 차례의 이탈은 공통 구조를 가진다. OpenAI가 상업적 필요에 의해 안전 연구의 우선순위를 낮출 때, 그 결정에 동의하지 않는 연구자들은 Anthropic으로 이동했다. 이 반복 자체가 두 회사의 연구자 계보가 겹치는 이유를 압축한다.

구조 분석

왜 계보가 겹칠 수밖에 없는가

여기에는 단순한 인사 이동 이상의 구조적 이유가 있다.

요인 설명
공통 모교 Anthropic 창립자 전원이 OpenAI 출신. 계보의 중첩은 출발점부터 구조적으로 내재돼 있다.
좁은 분야의 전문가 풀 AI 안전 및 정렬 연구는 여전히 소수 공동체다. 연구자 수가 적으니 서로를 알고, 같은 커뮤니티에서 이동한다.
이념적 인력 흐름 "안전을 진지하게 다루는 곳"이라는 Anthropic의 정체성이 불만족한 연구자들을 지속적으로 끌어당기는 자석 역할을 한다.
신뢰 기반 채용 스타트업 특성상, 이미 신뢰가 형성된 동료를 먼저 채용한다. 이는 자연스럽게 같은 이전 직장 출신들을 묶는다.
반복되는 구조적 마찰 상업적 압박이 커질 때마다 안전 연구자들의 이탈이 반복된다. 이동의 방향은 언제나 같다.
아이러니

같은 길을 걷고 있다는 비판

그러나 이 이야기에는 불편한 반전이 있다. 안전을 기치로 내걸고 떠나온 Anthropic이, 시간이 지나면서 OpenAI와 유사한 경로를 걷고 있다는 비판이 제기된다.

Anthropic 역시 점점 더 큰 모델을 경쟁적으로 출시하고, 수백억 달러의 투자를 유치하며, 기업 고객을 위한 상업적 제품을 빠르게 내놓고 있다. 투자에 의존하는 한, "상업적으로 매력적인 제품"에 대한 압박에서 자유롭기 어렵다.

더 나아가, 2025년 Anthropic의 헤드 오브 세이프티 Mrinank Sharma가 "세상이 위험하다"는 말을 남기고 퇴사했다는 사실은, 이 이야기의 아이러니를 완성한다. 안전을 이유로 만들어진 회사에서, 안전을 이유로 사람들이 떠나고 있다.

선언은 모두 공개적인 스펙터클에 불과했다는 것이 드러나고 있다. 그리고 많은 이들이 처음부터 그것을 알고 있었다.

— AI 산업 비판적 분석 (Medium, 2025)
결론

같은 출신, 다른 철학, 그리고 같은 압박

OpenAI와 Anthropic의 연구자 계보가 겹치는 이유는 단순하다. Anthropic은 OpenAI에서 분화된 조직이기 때문이다. 그 분화는 AI 개발 속도와 안전성 우선순위에 대한 철학적 불일치에서 비롯됐고, 그 불일치는 지금도 반복되며 인재를 이동시키고 있다.

그러나 더 흥미로운 질문은 이것이다. 상업적 압박과 투자자의 기대가 존재하는 한, 과연 어떤 AI 연구소가 '안전 우선'을 순수하게 지속할 수 있는가. 두 회사의 연구자 계보가 겹치는 것처럼, 두 회사가 직면한 구조적 딜레마 역시 결국 같은 것인지 모른다.

✦   ✦   ✦
OpenAI Anthropic AI 안전성 AI 정렬 Dario Amodei Jan Leike Constitutional AI AI 산업 분석