인간이 수행하는 과학 실험과 발견에는 한계가 존재한다. 하지만 인공지능과 컴퓨팅, 로봇을 통한 과학 실험과 발견에는 한계가 없다. 오늘날, 이러한 새로운 과학 실험과 발견에 대한 거대한 움직임이 이미 시작되었다. 현재 어떤 일이 일어나고 있는가?
2000년대 초반 이후 생산성이 비교적 안정세를 보인 이후, 많은 경제학자들은 이러한 생산성이 다시 1990년대에 나타난 성장률과 같거나 그 이상 초과할 것이라는 점에 대해서는 회의적인 것 같다. 이들의 회의는 사실 놀라운 일이 아니다. 이들 경제학자들은 월드와이드웹의 발명 이후, 생산성을 기술적 안정기의 관점에서만 생각하기 때문이다. 지난 30년의 위대한 성공 사례는 대부분 그 돌파구가 발생한 이후의 선형 외삽법(linear extrapolation) 방식에 의한 것이었다. 즉, 경제학자들은 과거의 추세가 그대로 지속되리라는 전제 아래 미래를 예측한다. 검색 엔진, 소셜 미디어, 스마트폰 및 SaaS(Software-as-a-Service)는 각각 엄청난 가치를 창출했지만, 이는 모두 1990년대 초에 만들어지고 이후 정제된 기술 패러다임의 부산물이었다. 하지만 다음 ‘레그업(leg up)’은 이미 만들어진 이러한 기반 위에 새로운 비즈니스 모델과 기술 패러다임을 구축하는 것이다.
결론적으로 지금부터 2030년대 중반까지 폭발적인 부의 창출이라는 새로운 물결은 유비쿼터스 네트워크 컴퓨팅, 인공지능, 양자 컴퓨팅, 로봇 공학이 결합되어 250년 전에 시작된 기술 도로에서 다음 큰 도약을 이루면서 가능해질 것이다. 기존 시스템이 최적화되어 진정한 혁신이 이루어지는 것이다.
미국을 보자. 자유 시장과 끊임없는 기술 혁신이 결합되어 미국인들은 1인당 GDP(오늘날 달러로 환산)를 연간 약 1300달러에서 거의 65,000달러로 높일 수 있었다. 이 전례 없는 상승은 250년과 4년 반 동안의 기술 경제 혁명을 통해 일어난 것이다. 앞의 기술 경제 혁명은 에너지를 활용하고 육체노동을 자동화하여 생산성을 높이는 데 중점을 두었다. 그 기간 동안 연구자들은 시행착오를 거치는 실험을 수행해야 했고 이와 결합된 수동적인 계산을 활용해 ‘과학적 발견의 그나마 적은 열매’만을 수확했다.
즉, 각각의 의미 있는 돌파구들을 식별하고 상업화하는 데 훨씬 더 많은 시간과 노력이 들었기 때문에, 인간의 독창성이 일상적으로 새로운 블록버스터를 생산하는 데 어려움이 있었던 것이다. 이러한 이유로 많은 경제학자들은 우리가 저성장 ‘뉴 노멀’에 갇혀 있다고 믿는다.
다행스럽게도 1971년에 시작된 제5차 기술 경제 혁명은 이러한 패러다임을 바꾸고 있다. 이 기술 경제 혁명을 통해 이전 기술이 농업, 제조, 운송, 통신, 엔터테인먼트에 제공했던 일종의 게임 체인저 솔루션을 과학이라는 분야에 제공할 수 있음이 입증되고 있기 때문이다. 이렇게 새롭게 등장한 솔루션에는 무엇이 있을까? 그리고 이 솔루션은 왜 이제야 우리 세계에 혁명을 일으키기 시작할까?
무어의 법칙과 ‘네트워크의 규모가 커지면 비용은 직선적으로 늘지만, 그 가치는 기하급수적으로 증가한다’는 메트칼프의 법칙(Metcalfe’s law)을 고려하면, 이러한 전례 없는 발전은 컴퓨팅 및 네트워크의 가격 대비 성능이 기하급수적으로 계속 향상되고 있음을 의미한다. 즉, 방대한 컴퓨팅 리소스, 데이터베이스, 통신 기능에 액세스할 수 있는 기능이 우리 주변에 항상 존재하는 것이다. 제5차 기술 경제 혁명의 황금기 또는 시너지 단계의 등장을 정의하는 특징은 디지털 기술을 사용하여 삶과 비즈니스의 거의 모든 측면에서 인류의 능력이 질적, 양적으로 크게 성장한다는 것이다.
이 새로운 시대의 핵심 부산물이자 원동력은 ‘협소한 인공 지능’으로 알려진 ‘머신 러닝’이다. 이것의 일상적 가치는 구글의 검색 엔진, 아마존의 알렉사, 애플의 최신 아이폰에 구현된 것처럼 어디에나 존재하고 있다.
그리고 이제 이러한 머신 러닝은 최근까지 상상할 수 없었던 방식으로 과학 연구에 혁명을 일으키려고 한다. 이 기술이 연구의 모든 측면을 수행하여 자체 강화 선순환을 생성하는 더 좋고, 빠르고, 저렴한 방법을 가능하게 하기 때문이다. 보다 생산적인 연구가 새로운 중요한 발견을 더 빠르고 저렴하게 이끌어 내고 부를 증가시키고, 사회가 연구 향상에 더 많은 자원을 투자하도록 장려함에 따라 이 기술의 광범위한 의미가 온 지구를 뒤흔들 것이다.
이 디지털 연구를 통해 할당된 기존 리소스의 양에 관계없이 이전에는 할 수 없었던 일을 이제는 수행할 수 있다. 더욱이, 가속화된 연구를 통해 오늘날 우리 중 가장 부유한 사람들에게 혜택을 주는 솔루션이 발명되고, 불과 몇 년 안에 그 혜택을 세계에서 가장 가난한 사람들에게까지 확대할 수도 있다.
전 세계적으로 ‘발견 프로세스’가 이렇게 빠르게 진행되거나 접근이 용이한 적은 인류 역사에 없었던 일이다. 그리고 이 속도는 매년 더 빨라지고 있다. 과학 연구는 이미 이러한 스마트 기계를 발판 삼아, 스마트한 연구자들에게 더 나은 환경을 제공하고 있다.
그 속도 때문에 과학자들은 종종 자신의 과학 연구 전문 분야 내에서만 이러한 혁명을 인식하고 있고, 매우 소수의 관리자, 정책 입안자, 투자자만이 아직 초기 단계에 있는 과학의 디지털 혁명의 적용 범위를 높게 평가하고 있다. 즉, 현재 무슨 일이 일어나고 있는지 알고 변화의 초기 징후를 포착할 수 있다면 그것은 큰 기회를 제공할 것이다.
가장 큰 기회는 무엇이고 이것이 과학자, 소비자, 투자자에게 무엇을 의미하는지 살펴보자.
이 혁명을 이해하려면 과학적 발견 주기의 기존 5단계를 이해하고 디지털화가 각 단계에서 프로세스를 향상시킬 수 있는 방법을 고려해야 한다.
1단계: 과학 문헌을 탐색한다. 여기에서 끝없는 작업은 엄청난 자료의 바다에서 관련 과학 논문을 식별하는 동시에 새로운 것이 등장할 때마다 이를 추적하는 것이다.
2단계: 실험을 설계한다. 여기에서 과제는 가설을 공식화하고 테스트 방법을 결정하는 것이다. 비즈니스 전략과 마찬가지로 실험적 설계는 나머지 연구를 안내하는 실행, 투자, 메트릭스를 결정한다. 핵심은 새로운 지평의 탐색과 잘 알려진 현상의 활용 사이에서 적절한 절충안을 찾는 것이다.
3단계: 실험을 실행한다. 수백만 개의 데이터 포인트와 그 관계를 추적하는 것이다. 예를 들어 생명 과학의 경우 다양한 분자와 세포에 대한 실험이 포함된 수천 개의 작은 튜브를 오염을 피하면서 정확하게 정해진 기간 동안 세심하게 모니터링하는 것이다.
4단계: 데이터를 해석한다. 여기에는 실험을 통해 도출된 원시 데이터의 홍수를 이해하는 것이 포함된다. 예를 들어 생명 과학에서 이것은 수 테라바이트의 유전 및 생화학적 정보를 포함할 수 있다. 목표는 실험 결과를 과학적 발견으로 변환하는 데 있다. 여기에서 연구자는 가설이 정량적으로 확인되었는지 또는 거부되었는지를 결정한다. 또는 동등하게 흥미로운 또 다른 가설이 공식화되고 확인된다.
5단계: 새로운 과학 논문을 작성하거나 특허를 신청한다. 여기에서 하나의 사이클이 끝나고 새로운 사이클이 시작된다. 연구원들은 1단계에서 확인되었는지 여부에 관계없이 모든 관련 선례를 인용했는지 확인한다. 이후 동료 검토가 완료되면 결과가 과학 문헌에 추가되어 다른 연구자가 인용할 수 있게 된다. 이상적인 경우, 이 발견은 자주 인용되는 연구 논문으로 번역될 뿐만 아니라 가치 있는 특허의 기초가 되며 아마도 완전히 새로운 기업이 탄생할 수 있는 계기가 된다.
문명의 여명기부터 1980년대까지, 이 5단계의 주기는 고된 수작업을 통해 이루어졌다. 그리고 이후 과학 문헌이 컴퓨터에 저장되고 메인프레임과 미니컴퓨터를 사용하여 대규모 데이터 세트의 통계 분석이 널리 사용 가능하게 되었으며 실험자들은 데이터 세트를 구축하기 위해 디지털 기기를 점점 더 많이 사용하게 되었다. 그리고 다시 약 35년 동안 이러한 기존 디지털 솔루션이 더 훌륭하고 저렴하고 빨라지게 되었다.
다만 인공지능, 빅데이터 기법, 로봇공학을 연구에 적용하여 비약적인 도약을 가능하게 한 것은 2015년 전후이다. 이제 주요 목표는 이러한 기술을 활용하여 과학적 과정에서 인간을 증강하거나 심지어 대체하는 데 있다. 두 번째이자 더 큰 목표는 이전에는 불가능했던 연구를 일상화하는 것이다.
이를 위해 연구자들은 이미 데이터 급류에 인공 신경망 형태로 인공 지능을 구현하고 있다. 이 인공 지능은 규칙 기반 시스템에 대한 이전의 시도와 달리 인간 전문가의 지식으로 프로그래밍될 필요가 없다. 인공 지능은 인간이 처리할 수 있는 것보다 훨씬 더 크고 난해한 데이터 세트에서 ‘패턴을 보고’, ‘이상을 발견’할 수 있을 때까지 종종 대규모 ‘훈련 데이터’ 세트에서 스스로 학습한다.
이 새로운 패러다임이 어떻게 결실을 맺을지 이해하려면, 인공 지능이 신약 개발 과학을 변화시킨 몇 가지 방법을 살펴보면 된다.
첫째, 인공 지능은 방대한 양의 데이터를 분석하여 인간이 식별하기에는 너무도 복잡한 데이터 세트의 패턴을 식별할 수 있다.
둘째, 인공 지능은 이러한 데이터를 기반으로 예측을 생성하여, 새로운 약물 표적과 주요 분자에 대한 빠르고 정확한 식별을 이루어낸다.
셋째, 인공 지능은 자연어 처리를 사용하여 이질적 정보와 데이터 세트를 결합하여 연구자에게 단일 실험으로는 제공할 수 없는 통찰력을 제공할 수 있다. 여기에는 모든 관련 과학 저널이 포함된다.
넷째, 약물 발견의 핵심 과제 중 하나는 약물이 표적으로 삼을 수 있는 단백질 구조를 이해하는 것이다. 구조는 실험적으로 식별할 수 있지만 그 과정에서 시간과 비용이 크게 발생한다. 이에 구글 딥마인드(DeepMind)는 최근 단백질 구조를 고정밀도로 예측할 수 있는 인공지능 플랫폼 알파폴드(AlphaFold)를 출시했다. 알파폴드는 신약 개발의 주요 병목 현상 중 하나에 대한 솔루션을 제공하여 잠재적인 약물 표적의 방대한 새로운 세트를 탐색할 수 있다.
다섯째, 생물학적 시스템은 매우 복잡한 상호작용 네트워크로 구성된다. 즉, 시스템의 복잡성으로 인해 약물이 어떻게 부작용을 일으킬 수 있는지 예측하기란 매우 어렵다. 이에 이-테라퓨틱스(E-therapeutics)는 인공 지능을 사용하여 이러한 복잡한 네트워크를 모델링 및 분석하고, 전체 생물학적 시스템의 대표 시뮬레이션을 실험실 버전의 환자 치료법으로 변환시켜 값비싼 임상 단계 실패를 줄이는 데 도움이 될 것이라는 가설을 내놓았다.
따라서 인공 지능은 초기 단계임에도 불구하고 이미 약물 발견 프로세스에 혁명적 영향을 미치고 있다는 사실을 널리 인정받고 있다. 또한 이를 통해 연구에 소요되는 각종 리소스를 완화시키고, 개발 일정을 가속화함으로써 비용을 절감할 수도 있다. 이에 대응하여 인공지능 공급업체와 약물 개발자 간 수많은 파트너십이 체결되었다.
그리고 이것은 다양한 인공지능 기반 약물 발견 플랫폼에 대한 벤처 캐피탈을 촉발했다. 더 빠르고 더 저렴한 약물 발견 방법의 가능성으로 인해 지난 10년 동안 수많은 신생 기업들이 설립되었다. 수많은 기업이 대규모 투자를 받고 대형 바이오 제약 회사와 파트너십을 구축했다.
그렇다면 어떤 회사가 신약 개발에 인공 지능을 사용하고 있고, 누가 이 개발을 지원하고 있을까? 몇 가지만 살펴 보자.
베네볼런트에이아이(BenevolentAI)는 기계 학습을 사용하여 대규모 저장소에서 관련 생물 의학 데이터를 연결하는 소위 ‘지식 그래프’를 생성한다. 이러한 지식 그래프에는 데이터의 복잡성과 볼륨으로 인해 인간이 스스로 합성할 수 없는 통찰력이 포함되어 있다. 이 정보는 약물 표적을 식별하고 리드 분자를 개발하며, 알려진 약물의 용도를 변경하는 데 사용할 수 있다.
베네볼런트에이아이는 승인된 류마티스 관절염 치료제인 바리시티닙(baricitinib)이 코로나 19 치료에 사용될 가능성이 있음을 확인했다. 이후 FDA는 입원한 코로나 환자를 치료하기 위해 바리시티닙의 사용을 승인했다. 베네볼런트에이아이는 아스트라제네카(AstraZeneca)와 협력하고, 이 파트너십은 베네볼런트에이아이의 플랫폼과 아스트라제네카의 전문 지식 및 대규모 데이터 세트를 결합하는 것이다. 이들은 2021년 1월 만성신장질환의 새로운 표적 발견을 발표했다.
레커전(Recursion)이라는 회사는 분자 치료로 인한 세포 생물학의 미묘한 변화를 식별하기 위해 머신 비전을 사용하여 약물 발견을 더 빠르고 저렴하게 만드는 것을 목표로 한다. 이 접근 방식을 통해 이 회사는 방대한 양의 실험 데이터를 신속하게 분석할 수 있다. 데이터는 매주 150만 건의 실험을 수행하는 자동화된 로봇 실험실을 통해 사용된다.
이 회사는 1상 임상 시험에서 4개의 약물 후보를 보유하고 있으며 섬유성 질환에 대한 새로운 치료법 개발을 목표로 하는 바이엘과 지속적인 파트너십을 맺고 있다. 21년 4월에 레커전은 나스닥에서 4억 3,600만 달러의 IPO를 완료했다.
오늘날, 새로운 약물의 발견과 승인에는 약 26억 달러 이상의 비용과 최소 10년의 시간이 소요되는 것으로 추정된다. 인공지능 약물 발견 기술은 아직 초기 단계이고 많은 응용 프로그램이 여전히 탐색 중이지만 약물 발견 프로세스를 개선할 수 있는 인공지능의 잠재력에 대해서는 의심의 여지가 없다.
2015년 이후로 인공지능 서비스와 제약 산업 간에 약 100개의 새로운 파트너십이 체결되었다. 또한 2021년 11월, 알파벳(Alphabet)은 신약 개발에 대한 새로운 ‘인공지능 우선 접근 방식’을 제공하는 것을 목표로 하는 구글딥마인드의 분사 이소모픽랩(Isomorphic Laboratories)을 발표했다.
제약 산업의 이러한 초기 발전은 자동화된 과학 연구가 가치를 창출하는 방식에 혁명을 일으키게 될, 광범위한 세계의 한 분야에 불과하다는 점을 인식하는 것이 중요하다. 전 세계의 연구실은 이러한 핵심 역량을 재료 과학, 화학 합성, 기타 여러 분야에 적용하느라 분주하게 움직이고 있다.
이들의 공통 아이디어는 거의 모든 틈새시장에서 더 저렴하고 빠르고 효과적인 재료와 공정을 만드는 것이다. 이렇게 함으로써 자동화된 과학 연구는 농업, 운송, 항공우주, 건설, 에너지, 소비재와 같은 다양한 산업을 변화시키고 향상시킬 수 있다.
이러한 추세를 감안할 때 우리는 향후 네 가지를 예측해보고자 한다.
첫째, 빠르면 2030년, 자동화된 과학 연구로 가능해진 혁신적 신소재의 홍수로 인해 광범위한 산업이 전혀 새로운 모습으로 변모할 것이다.
자동차, 포장, 건설, 농업과 같은 다양한 산업에서 생산성을 높이려면 더 나은 재료가 필요하다. 지금까지 재료 발견은 과학자들이 새로운 분자를 생성한 다음 원하는 특성에 대해 순차적으로 각각을 테스트하는 시행착오 과정이었다. 이러한 과정에는 평균 20년이 걸리고, 이는 대부분의 기업에게 고비용과 고리스크를 강요한다. 하지만 이제 다음 사항들을 상상해보자.
- 분자의 전자 구조에 대한 정확한 지식을 사용하여 새로운 디자인을 만드는 컴퓨터 프로그램
- 이러한 분자를 만들고 테스트하는 로봇
- 우리가 찾고 있는 특성을 가진 재료를 생산할 때까지, 분자 테스트, 디자인 조정, 다시 테스트 등의 업무에 소프트웨어와 로봇이 함께 작동
이미 토론토 대학의 연구원들은 인공지능, 로봇 공학, 컴퓨팅의 발전을 사용하여 이 비전을 실현하고 있다. 이들 연구실 중앙에는 트랙을 따라 앞뒤로 움직이는 로봇, 질소로 채워진 유리, 금속 인클로저가 있다.
로봇은 인클로저의 측면 근처에 있는 캐니스터 배열에서 분말과 액체를 선택하고 고도의 정확도로 여러 반응기 중 하나에 내용물을 넣을 수 있다. 로봇은 24시간 연중무휴로 화학 물질을 혼합하는 지칠 줄 모르는 실험실 조수와 같다. 이 로봇은 12시간마다 40개의 화합물을 만들 수 있다. 로봇 외에도 시스템에는 후보 분자를 식별하는 켐오에스(ChemOS)라는 소프트웨어가 있다. 또 다른 프로그램은 켐오에스를 로봇에 연결하여 요청 시 이러한 후보를 합성하도록 지시한다.
이 시스템의 세 번째 특징적 구성 요소는 생산 프로세스의 완전 자동화된 ‘폐쇄 루프’이다. 반응이 끝나면 생성된 액체는 플라스틱 호스를 통해 작은 냉장고 크기와 모양의 분석 기계로 흘러 들어가 원치 않는 부산물을 분리해낸다. 그런 다음 정제된 출력물은 그 속성을 확인할 수 있도록 테스트 로봇으로 넘겨진다.
이러한 결과가 완료되면 로봇은 실험 결과를 켐오에스 프로그램에 다시 입력하여 인공 지능이 해당 실험에서 학습하고 즉시 새롭고 더 나은 후보 분자 슬레이트를 생성할 수 있도록 한다. 그런 다음 여러 차례의 예측 끝에 합성 및 테스트의 결과값이 나타난다.
이와 같이 자동화된 폐쇄 루프 발견 시스템을 사용하는 아이디어는 화학 연구자들에게 점점 더 매력적으로 다가오고 있다. 밴쿠버, 뉴욕시티, 어바나-삼페인(Champaign-Urbana), 글래스고우 등의 다른 대학들도 현재 유사한 시설을 건설하고 있다. 이러한 다목적 자동 분자 생성 시설이 대학 캠퍼스와 전 세계 기업 R&D 센터에 등장함에 따라 비용 효율적인 고성능 재료의 새로운 시대가 도래할 것이다.
둘째, 기업이 SaaS(Software-as-a-Service)에 의존하는 것처럼, 많은 기업들이 실험 실행과 관련된 시간, 비용, 운영 문제를 극적으로 줄이기 위해 완전 자동화된 원격 연구소에 의존할 것이다.
생명 과학에서 클라우드 기반 원격 실험실은 이미 최첨단 실험의 속도, 비용, 품질 및 접근성을 획기적으로 개선하는 엄청난 이점을 제공할 수 있다. 에머랄드 클라우드 랩(Emerald Cloud Labs), 트랜스크립틱(Transcriptic)과 같은 회사는 최첨단 로봇 연구소에서 시간을 판매한다.
완전 자동화된 멸균 실험실을 구축하고 운영하기 위해 백만 달러 이상을 투자하는 대신 모든 신생 기업이나 기술 회사는 ‘필요에 따라’ 이러한 시설에 대한 액세스 권한을 구입할 수 있다. 이곳에서 로봇은 연구원의 실험 계획을 완벽하게 실행하고 실험의 최종 제품과 함께 데이터 파일을 전달한다.
클라우드를 통해 거의 모든 기업에서 슈퍼컴퓨팅 성능에 액세스할 수 있는 것처럼 이 실험실에서는 거의 모든 생명공학 연구원에게 실험실에 액세스할 수 있는 권한을 부여한다. 이러한 여파로 엔젤 또는 벤처 캐피탈 자금을 지원받는 스타트업이 주요 기업 연구 센터와 경쟁할 수 있는 구도가 형성될 수 있다.
셋째, 인공 지능의 가장 큰 영향은 과학적 발견과 제품의 개발 측면에 있을 것이다. 그리고 그곳에서 전체 산업은 인공 지능 없이는 가능하지 않았을 발견을 중심으로 새롭게 구축될 것이다.
앞서 언급한 단백질 접힘 돌파구는 많은 블록버스터 사례 중 최신 사례일 뿐이다. MIT 연구자들은 최근 ‘수일 만에 1억 개 이상의 화학 화합물을 스크리닝할 수 있는 컴퓨터 모델이 기존 약물과 다른 메커니즘을 사용하여 박테리아를 죽이는 잠재적인 항생제를 선별하도록 설계됐다’고 발표했다.
마찬가지로 와이어드(Wired) 지는 미국에서 개발한 인공지능 플랫폼을 사용하여 이전보다 10배 더 빠르게 다양한 리튬 배터리 화학물질을 분석하고 있는 슬로바키아 기반 회사 이노뱃(InoBat)을 보도한 바 있다. 그러나 이것은 판도를 완전히 바꾸는 과학적 연구 수행에 대한 인공지능의 고유한 능력 활용에 있어 ‘빙산의 일각’에 불과하다. 이 기술은 아직 초기 단계이기 때문에, 이전에는 상상할 수 없었던 솔루션이 어디까지 가능한지 아직 알 수 없지만, 새로운 회사와 심지어 새로운 산업의 기반을 형성할 것이다.
Resource:
1. MIT Technology Review. February 15, 2019. David Rotman. AI is reinventing the way we invent.
3. Drug Discovery Today. 2021 Jan. Debleena Paul, Gaurav Sanap, Snehal Shenoy, Dnyaneshwar Kalyane, Kiran Kalia, and Rakesh K. Tekade. Artificial intelligence in drug discovery and development.
4. Nature. July 15, 2021. John Jumper, Richard Evans, Alexander Pritzel, Tim Green, et. al. Highly accurate protein structure prediction with AlphaFold.
6. Journal of Health Economics. May 2016. Joseph A. DiMasi, Henry G.Grabowski, & Ronald W.Hansen. Innovation in the pharmaceutical industry: New estimates of R&D costs.
7. ClinicalTrialsArena.com. 22 Jan 2021. GlobalData Healthcare. Big Pharma is forging an increased number of partnerships with artificial intelligence vendors for drug discovery services.
After being relatively flat since early 2000s, it’s not surprising that many economists doubt that productivity will again match or exceed the growth rates seen in the 1990s. That’s because they are thinking in terms of the technological plateau we’ve been on since the invention of the worldwide web. The great success stories of the past 30 years have mostly been linear extrapolations from that breakthrough. Search engines, social media, smart phones, and software-as-a-service have each created enormous value, but they are all by-products of a technological paradigm created in the early 1990s and refined since then. The next “leg up” will involve building new business models and technological paradigms on the foundation which has already been created.
The new wave of explosive wealth creation from now through the mid-2030s will be enabled by combining ubiquitous networked computing, AI, quantum computing and robotics to take the next major leap froward on a technological road which began 250 years ago. Optimizing existing systems will give way to true innovation.
As discussed in our book Ride the Wave , combining free markets with ceaseless technological innovation, enabled Americans to raise their per capita GDP (in today’s dollars) from roughly $1300 a year to nearly $65,000. This unprecedented surge took place across 250 years and four-and-a-half techno-economic revolutions. The first four techno-economic revolutions focused on increasing productivity by harnessing energy and automating physical labor. During that time, researchers harvested “the low-hanging fruit of scientific discovery” using manual calculations combined with trial & error experimentation. But as many scholars remind us, each meaningful breakthrough now requires far more time and effort to identify and commercialize making it harder for human ingenuity to routinely produce new blockbusters. For that reason, many economists believe we’re stuck in a slow growth “new normal.”
Fortunately, the defining technologies of the Fifth Techno-Economic Revolution which began in 1971 are proving to be capable of providing for science the sorts of game-changing solutions that earlier technologies provided for agriculture, manufacturing, transportation, communication and entertainment.
What are these new solutions? And why are they only now beginning to revolutionize our world?
The unprecedented advance of Moore’s Law as well Metcalfe’s Law means the price-performance of computing and networks continues to improve at exponential rates. Therefore, the ability to access vast computing resources, databases, and communications capabilities can be in everything, everywhere, all the time. A defining characteristic of the emerging Golden Age (or synergy stage) of the Fifth Techno-Economic Revolution lies in mankind’s growing ability to qualitatively and quantitatively enhance almost every aspect of life and business using digital technology.
A key by-product and enabler of this new era is “machine learning,” also known as “narrow artificial intelligence.” It’s day-to-day value has become ubiquitous as embodied in Google’s search engine, Amazon’s Alexa, and Apple’s latest iPhone.
Now, machine learning is about to revolutionize scientific research in ways that have, until recently, been unimaginable. That’s because these technologies will enable better, faster, and cheaper ways to conduct every aspect of research creating a self-reenforcing virtuous cycle. The widespread implications will become earth-shattering as more productive research leads quickly and cheaply to important new discoveries, which will increase wealth, and encourage society to devote even more resources to enhancing research.
This is especially true, because digital research will enable us to do things that could never have been done before, regardless of the amount of traditional resources allocated. Furthermore, this accelerated research will enable us to invent solutions that benefit the wealthiest among us today and then extend those benefits to even the world’s poorest people within just a few years.
Never before has the discovery process been moving so rapidly or been so accessible on a global basis. And it’s getting faster every year. Scientific research is already leveraging smart machines to empower smart people better than most fields of endeavor,
Because of its pace, scientists themselves are frequently only aware of the revolution within their own scientific research specialty. Meanwhile, very few managers, policymakers or investors appreciate the enormous scope of the digital revolution in science which is still in its infancy. That creates big opportunities for those who know what’s happening and can scan the horizon for early signs of change.
Let’s consider some the biggest opportunities and what it will mean for scientists, consumers and investors.
To appreciate this revolution, it’s necessary to understand the five steps of the scientific discovery cycle and consider how digitization can enhance the process at each step.
Step One: Explore the scientific literature . Here the never-ending task is to identify the relevant scientific papers in a sea of millions, while tracking new topics as they emerge.
Step Two: Design experiments. Here the challenge is to formulate hypotheses and determine how they can be tested. Like business strategy, experimental design determines the execution, investment, and metrics guiding the rest of the study. The key is to find the right trade-off between exploration of new ground and exploitation of well-understood phenomena.
Step Three: Run experiments. Keep track of millions of data points and their relationships. In the case of the life sciences, for instance, thousands of tiny tubes containing experiments on various molecules and cells must be meticulously monitored over precisely determined time periods, while avoiding contamination. Errors at this stage, can lead to career-ending consequences.
Step Four: Interpret the Data . This involves making sense of the flood of raw data coming from the experiments. In the life sciences, for example, this could involve many terabytes of genetic and biochemical information. The goal is to transform the experimental results into scientific findings. Here the researcher determines whether the hypothesis is quantifiably confirmed or rejected; or perhaps, another, equally interesting hypothesis is formulated and confirmed. And,
Step Five: Write a New Scientific Paper and/or Apply for a Patent . This is where the cycle ends and a new one begins. The researchers make sure they cite every relevant precedent, regardless of whether it was identified in step one. Then, once peer-reviewed, the results are added to the body of scientific literature to be cited by other researchers. In the ideal case, the findings translate, not only into a frequently cited research paper, but become the basis for a valuable patent and perhaps even a whole new enterprise.
From the dawn of civilization until the 1980s, every step in this cycle was painstakingly manual. That’s when scientific literature became stored on computers, statistical analysis of large data sets became widely available using mainframes and minicomputers, and experimenters increasingly used digital instrumentation to build data sets. Then, over the next 35 years or so, those conventional digital solutions became better, cheaper and faster.
However, it’s only since 2015 or so, that artificial intelligence, big data methods, and robotics have reached the point where they are enabling a quantum leap when applied to research. Going forward, the primary goal is harnessing these technologies to augment, or even replace, humans in the scientific process. The second and bigger objective is to make research, that was “formerly impossible,” routine.
To do this, researchers are already unleashing artificial intelligence, often in the form of artificial neural networks, on the data torrents. Unlike earlier attempts at rule-based systems, these don’t need to be programmed with a human expert’s knowledge.
Instead, they learn on their own, often from large sets of “training data,” until they can “see patterns” and “spot anomalies” in data sets that are far larger and messier than human beings can cope with.
To appreciate how this new paradigm will pay-off, consider some of the ways artificial intelligence is transforming the science of drug discovery.
First, Artificial intelligence can analyze vast quantities of data, allowing it to identify patterns in datasets that are too complex for humans to discern.
Second, artificial intelligence can generate predictions based on these data, potentially leading to the rapid and accurate identification of novel drug targets and lead molecules.
Third, artificial intelligence can use natural language processing to bring together disparate information and datasets, providing researchers with insights that no single experiment could provide. That includes all relevant scientific journals.
Fourth, one of the key challenges in drug discovery is understanding the structure of the protein that a drug could target. Although structures can be discerned experimentally, the process is time consuming and expensive. Google’s DeepMind has recently launched AlphaFold, an AI platform that can predict protein structures with high accuracy. AlphaFold has provided a solution to one of the key bottlenecks in drug discovery, enabling a vast new set of potential drug targets to be explored.
Fifth, biological systems consist of highly complex networks of interactions. The complexity of the system makes it difficult to predict how a drug might have adverse effects. For example, E-therapeutics uses artificial intelligence to model and analyze these complex networks and hypothesize that a representative simulation of a whole biological system will help translate therapies from laboratory to patient, reducing expensive clinical-stage failure.
So, despite its apparent infancy, artificial intelligence is already being widely recognized to have a revolutionary impact on the drug discovery process, with the potential to mitigate attrition, accelerate development timelines and reduce cost. In response, numerous partnerships have been struck between AI-vendors and drug developers. And this has triggered venture capital in a range of AI-based drug discovery platforms. The potential for a faster and cheaper method of drug discovery has led to the founding of numerous start-ups over the past decade. Many have received large amounts of investment and established partnerships with large biopharma companies.
Which companies are using artificial intelligence in drug discovery and who is backing them? Consider a few examples.
BenevolentAI creates so-called “knowledge graphs” using machine learning to connect related biomedical data from its large repository. These knowledge graphs contain insights that humans would not be able to synthesize on their own due to the complexity and volume of the data. This information can be used to identify drug targets, develop lead molecules and repurpose known drugs. BenevolentAI identified that baricitinib (an approved rheumatoid arthritis drug) had potential to be used in the treatment of COVID-19. The FDA subsequently authorized the use of baricitinib to treat hospitalised COVID-19 patients. BenevolentAI collaborates with AstraZeneca and the partnership combines BenevolentAI’s platform with AstraZeneca’s expertise and large datasets. In January 2021, it announced the discovery of a novel target for chronic kidney disease.
A firm called Recursion aims to make drug discovery faster and cheaper using machine vision to identify subtle changes in cell biology, caused by treatment with molecules. The approach allows the company to rapidly analyze vast quantities of experimental data. The data are generated in-house using its automated robotic laboratory, which performs 1.5 million experiments each week. The company has four drug candidates in Phase I clinical trials and has an ongoing partnership with Bayer that aims to develop new therapies in fibrotic disease. In April, Recursion completed a $436 million IPO on Nasdaq.
Today, the discovery and approval of a new drug is estimated to cost over $2.6 billion and it takes at least 10 years. Although AI-based drug discovery technology is still nascent and many applications are just being explored, there is broad recognition of the potential of AI to improve the drug discovery process.
Since 2015 there have been around 100 new partnerships between AI services and the pharmaceutical industry. Additionally, in November, Alphabet announced the launch of Isomorphic Labs, a spin-off of DeepMind which aims to deliver a new “AI-first approach” to drug discovery.
It’s important to recognize that this early progress in the pharmaceutical industry represents just one particularly high-profile area where automated scientific research will revolutionize the way value is created. Research laboratories around the world are busy applying these core capabilities to materials science, chemical synthesis, and a host of other fields. The idea is to make cheaper, faster, and more effective materials and processes available in almost every niche. Doing so will transform and enhance industries as diverse as agriculture, transportation, aerospace, construction, energy and consumer packaged goods.
Given this trend we offer the following forecasts for your consideration.
First, as soon as 2030, a wide range of industries will be transformed by a flood of revolutionary new materials made possible by automated scientific research.
Industries as diverse as automobiles, packaging, construction and farming need better materials to be more productive. Until now, materials discovery has been a trial-and-error process, whereby scientists produce new molecules and then test each one sequentially for the desired properties. This takes an average of two decades and it’s too expensive and risky for most companies to pursue. However,
- imagine computer programs that use precise knowledge of a molecule’s electronic structure to create new designs;
- imagine robots that make and test these molecules; and
- imagine the software and robots working together - testing molecules, tweaking designs, and testing again - until they produce a material with the properties we’re looking for.
Already, researchers at the University of Toronto are using advances in AI, robotics, and computing to bring this vision to life. At the center of their lab is a nitrogen-filled glass-and-metal enclosure housing a robot that moves back and forth along a track. The robot can select powders and liquids from an array of canisters near the sides of the enclosure and deposit the contents, with exacting accuracy, into one of a number of reactors. The robot is like a tireless lab assistant who mixes chemicals 24/7. It can make 40 compounds every 12 hours. In addition to the robot, the system features software called ChemOS, which identifies candidate molecules. Another program interfaces ChemOS to the robot, directing it to synthesize these candidates on demand. The third distinctive component of this system is the fully-automated “closed-loop” nature of the production process. Once a reaction is finished, the resulting liquid runs through plastic hoses to an analytical machine the size and shape of a small refrigerator, which separates out unwanted by-products. The refined output then flows into another robot which tests it to learn about its properties. Once those results are complete, the robot feeds the results of the experiment back into the ChemOS program, enabling the artificial intelligence to learn from that trial and instantly generate a new and better slate of candidate molecules. Then, after many rounds of predictions, synthesis, and testing a winner emerges. - Not surprisingly, the idea of using such automated, closed-loop discovery system has become increasingly attractive to chemistry researchers. Peers in Vancouver, New York City, Champaign-Urbana, and Glasgow are now building similar facilities. As such all-purpose, automated molecular creation facilities appear on university campuses and at corporate R&D centers worldwide, a new era of cost-effective, high-performance materials will dawn.
Second, just as firms rely on software-as-a-service, many will rely on fully-automated remote research labs to dramatically cut the time, cost and operational problems associated with running their experiments.
In the life sciences, cloud-based remote laboratories can already deliver enormous benefits that dramatically improve the speed, cost, quality and accessibility of state-of-the-art experimentation. Companies like Emerald Cloud Labs and Transcriptic sell time in their state-of-the-art robotic laboratories. Rather than invest a million dollars or more to build and operate a sterile, fully automated laboratory, any start-up or tech company can buy access to these facilities on an “as-needed basis.” There, robots flawlessly execute the researchers’ experimental plan and deliver data files along with the frozen end-products of the experiments. Just as the cloud gives nearly every business access to supercomputing power, these labs give nearly every biotech researcher access to a laboratory. Suddenly a startup with angel or VC funding can compete with major company research centers. And,
Third, the biggest impact of artificial intelligence will be in terms of scientific discovery and product development, where whole industries will be built around discoveries that could not have even been made without the use of AI.
The protein-folding breakthrough mentioned earlier is only the latest of many blockbuster examples. MIT researchers recently reported that, “A computer model, which can screen more than a hundred million chemial compounds in a matter of days, is designed to pick out potential antibiotics that kill bacteria using different mechanisms than those of existing drugs.” Similarly, Wired magazine reported on InoBat, a Slovakia-based company which is using a U.S.-developed AI platform to analyze different lithium battery chemistries 10 times faster than what was previously possible. - And this is just “the tip of the iceberg” when it comes to harnessing the unique abilities of AI to do game-changing scientific research. Since this technology is still in its infancy, the Trends Editors expect to see a whole wave of previously unimagined solutions, which will form the basis for new companies and even new industries.
Resource List
1. MIT Technology Review. February 15, 2019. David Rotman. AI is reinventing the way we invent.
3. Drug Discovery Today. 2021 Jan. Debleena Paul, Gaurav Sanap, Snehal Shenoy, Dnyaneshwar Kalyane, Kiran Kalia, and Rakesh K. Tekade. Artificial intelligence in drug discovery and development.
4. Nature. July 15, 2021. John Jumper, Richard Evans, Alexander Pritzel, Tim Green, et. al. Highly accurate protein structure prediction with AlphaFold.
6. Journal of Health Economics. May 2016. Joseph A. DiMasi, Henry G.Grabowski, & Ronald W.Hansen. Innovation in the pharmaceutical industry: New estimates of R&D costs.
7. ClinicalTrialsArena.com. 22 Jan 2021. GlobalData Healthcare. Big Pharma is forging an increased number of partnerships with artificial intelligence vendors for drug discovery services.