How many of you are creatives, designers, engineers, entrepreneurs, artists, or maybe you just have a really big imagination? Show of hands? (Cheers)
이 자리에 크리에이터나 디자이너, 엔지니어, 기업가, 예술가 풍부한 상상력을 가진 분이 있다면 손을 들어 보세요.
That's most of you. I have some news for us creatives. Over the course of the next 20 years, more will change around the way we do our work than has happened in the last 2,000. In fact, I think we're at the dawn of a new age in human history.
거의 다군요. 그러한 여러분에게 전해드릴 소식이 있습니다. 지금으로부터 20년 동안 지난 2000년간 인간이 일했던 방식의 변화보다 더 많은 변화가 있을 것입니다. 저는 인류사에 새로운 시대의 새벽이 왔다고 봅니다.
Now, there have been four major historical eras defined by the way we work. The Hunter-Gatherer Age lasted several million years. And then the Agricultural Age lasted several thousand years. The Industrial Age lasted a couple of centuries. And now the Information Age has lasted just a few decades. And now today, we're on the cusp of our next great era as a species.
인간이 일하는 방식으로 크게 네 시대로 나눌 수 있습니다. 수렵과 채집의 시대는 수백만 년간 지속됐죠. 그다음엔 농경 시대가 수천 년간 지속됐으며 산업 시대는 수 세기 간 이어졌습니다. 그리고 정보 시대는 몇십 년간 지속되고 있습니다. 오늘날 우리는 한 종으로서 그다음 위대한 시대의 시작에 있어요.
Welcome to the Augmented Age. In this new era, your natural human capabilities are going to be augmented by computational systems that help you think, robotic systems that help you make, and a digital nervous system that connects you to the world far beyond your natural senses. Let's start with cognitive augmentation. How many of you are augmented cyborgs? (Laughter)
증강의 시대에 오신 것을 환영합니다. 이 새로운 시대에서는 인간의 사고를 돕는 컴퓨터 시스템을 통해 인간의 자연 능력이 증강될 겁니다. 로봇 시스템은 제작을 도우며 디지털 신경계는 타고난 자연적인 감각 너머의 세계와 여러분을 연결할 것입니다. 인식의 증강부터 시작하죠. 여러분 중 몇 분이 증강된 사이보그일까요?
I would actually argue that we're already augmented. Imagine you're at a party, and somebody asks you a question that you don't know the answer to. If you have one of these, in a few seconds, you can know the answer. But this is just a primitive beginning. Even Siri is just a passive tool. In fact, for the last three-and-a-half million years, the tools that we've had have been completely passive. They do exactly what we tell them and nothing more. Our very first tool only cut where we struck it. The chisel only carves where the artist points it. And even our most advanced tools do nothing without our explicit direction. In fact, to date, and this is something that frustrates me, we've always been limited by this need to manually push our wills into our tools -- like, manual, literally using our hands, even with computers.
전 인간이 이미 증강됐다고 주장할 테니까요. 파티에 갔다고 상상하면 누군가 당신이 답을 알지 못하는 질문을 했을 때 이것만 있다면 몇 초 만에 답을 알 수 있습니다. 하지만 이는 겨우 시작일 뿐입니다. 심지어 'Siri'조차도 수동적인 도구에 지나지 않습니다. 사실 지난 350만 년 동안 인류가 사용했던 도구는 완벽하게 수동적이었습니다. 그것은 인간의 명확한 지시 없이는 아무것도 하지 못했습니다. 최초의 도구는 인간이 정한 지점만 잘라냈죠. 예술가의 의도 없이 끌은 조각도 못 하죠. 가장 진보한 도구조차도 인간의 지시 없이는 아무것도 못 합니다. 사실 오늘날까지 문자 그대로 인간이 항상 손으로 심지어 컴퓨터도 의도를 가지고 일일이 누르거나 해야 한다는 한계를 항상 가진다는 것은 저에게 실망감을 줍니다.
But I'm more like Scotty in "Star Trek." I want to have a conversation with a computer. I want to say, "Computer, let's design a car, " and the computer shows me a car. And I say, "No, more fast-looking, and less German, " and bang, the computer shows me an option. (Laughter)
전 스타 트렉의 Scotty처럼 컴퓨터와 대화하고 싶습니다. "자동차를 디자인해 보자"라고 컴퓨터에 말하면 컴퓨터가 자동차를 보여 주고 "더 빠르게 좀 덜 독일제처럼"이라고 하면 컴퓨터가 제게 선택지를 제시하는 것처럼요.
That conversation might be a little ways off, probably less than many of us think, but right now, we're working on it. Tools are making this leap from being passive to being generative. Generative design tools use a computer and algorithms to synthesize geometry to come up with new designs all by themselves. All it needs are your goals and your constraints.
위에서 언급한 대화는 많은 분들의 생각과는 거리가 있지만 지금 우리는 이런 것을 연구하고 있습니다. 시키는 것만 가능했던 도구에서 생산적인 것으로 변화 중입니다. 생산적인 디자인 도구는 기하학적 구조를 다루는 컴퓨터와 알고리즘을 사용하여 스스로 새로운 디자인을 만듭니다. 여러분이 가진 목표와 제약만 알려주면 됩니다.
I'll give you an example. In the case of this aerial drone chassis, all you would need to do is tell it something like, it has four propellers, you want it to be as lightweight as possible, and you need it to be aerodynamically efficient. Then what the computer does is it explores the entire solution space: every single possibility that solves and meets your criteria -- millions of them. It takes big computers to do this. But it comes back to us with designs that we, by ourselves, never could've imagined. And the computer's coming up with this stuff all by itself -- no one ever drew anything, and it started completely from scratch. And by the way, it's no accident that the drone body looks just like the pelvis of a flying squirrel.(Laughter)
예를 들어보면 '무인 항공기 차대'를 원하는 경우 이렇게 말하면 됩니다. 4개의 프로펠러를 가지면서 가능한 가볍고 공기역학적으로 효율적인 것을 원한다. 컴퓨터는 모든 해결 가능한 방법들을 탐색하고 수백만 개의 해법들이 여러분의 기준에 맞는지 맞춰 볼 것입니다. 이러한 작업을 커다란 컴퓨터가 담당합니다. 하지만 우리에게 돌아오는 결과는 우리는 상상도 못 했던 디자인이죠. 그리고 컴퓨터가 제안한 것은 아무도 그려본 적 없고 완전히 무에서부터 시작된 것입니다. 그리고 무인 항공기 몸체가 날다람쥐의 골반처럼 생긴 것은 우연이 아닙니다.
It's because the algorithms are designed to work the same way evolution does.
진화와 동일한 방식으로 작동하도록 알고리즘을 설계했기 때문이죠.
What's exciting is we're starting to see this technology out in the real world. We've been working with Airbus for a couple of years on this concept plane for the future. It's a ways out still. But just recently we used a generative-design AI to come up with this. This is a 3D-printed cabin partition that's been designed by a computer. It's stronger than the original yet half the weight, and it will be flying in the Airbus A320 later this year. So computers can now generate; they can come up with their own solutions to our well-defined problems. But they're not intuitive. They still have to start from scratch every single time, and that's because they never learn. Unlike Maggie. (Laughter)
현실에서 이러한 기술의 시작을 보는 것은 매우 설레는 일입니다. 지난 몇 년간 저희는 'Airbus`와 협력하여 미래 지향적인 비행기를 연구 중이지만 여전히 제자리걸음입니다. 하지만 최근 인공지능을 이용하여 다음과 같은 결과를 얻었습니다. 이것은 컴퓨터가 디자인한 것을 3D 프린터로 출력한 칸막이입니다. 기존의 것보다 더 튼튼하나 무게는 절반입니다. 그리고 올해 말쯤 Airbus A320에 탑재될 예정입니다. 컴퓨터는 이제 잘 정의된 문제에 스스로 해법을 찾아낼 수 있습니다. 하지만 직관적이지는 않습니다. 컴퓨터들은 학습한 적이 없기에 매번 완전히 무로부터 작업합니다. Maggie는 다릅니다.
Maggie's actually smarter than our most advanced design tools. What do I mean by that? If her owner picks up that leash, Maggie knows with a fair degree of certainty it's time to go for a walk. And how did she learn? Well, every time the owner picked up the leash, they went for a walk. And Maggie did three things: she had to pay attention, she had to remember what happened and she had to retain and create a pattern in her mind.
Maggie는 현재 제일 진보한 도구들보다 똑똑합니다. 무슨 의미일까요? Maggie는 주인이 목줄을 들면 이제 산책을 할 시간이라는 것을 정확하게 알거든요. 어떻게 아는 것일까요? 아마 목줄을 들었을 때마다 함께 산책했기 때문일 것입니다. Maggie는 세 가지를 했습니다. 그녀는 집중했고 무슨 일이 일어났는지 기억했고 기억을 유지하면서 머릿속에 그 패턴을 만들었죠.
Interestingly, that's exactly what computer scientists have been trying to get AIs to do for the last 60 or so years. Back in 1952, they built this computer that could play Tic-Tac-Toe. Big deal. Then 45 years later, in 1997, Deep Blue beats Kasparov at chess. 2011, Watson beats these two humans at Jeopardy, which is much harder for a computer to play than chess is. In fact, rather than working from predefined recipes, Watson had to use reasoning to overcome his human opponents. And then a couple of weeks ago, DeepMind's AlphaGo beats the world's best human at Go, which is the most difficult game that we have. In fact, in Go, there are more possible moves than there are atoms in the universe. So in order to win, what AlphaGo had to do was develop intuition. And in fact, at some points, AlphaGo's programmers didn't understand why AlphaGo was doing what it was doing.
흥미롭게도 그 과정은 컴퓨터 과학자들이 60년 혹은 그보다 더 오랫동안 인공 지능에 적용하려 한 것과 정확히 일치합니다. 1952년에 과학자들은 '틱택토' 게임을 할 수 있는 컴퓨터를 설계했는데요. 대단하네요. 그 후 45년이 지난 1997년엔 Deep Blue는 체스에서 Kasparov를 이겼죠. 2011년 Watson은 컴퓨터로썬 체스보다 더 많이 어려운 Jeopardy에서 두 사람을 이겼습니다. 사실 미리 설정된 방안을 사용하기보다는 Watson이 인간을 뛰어넘으려면 추론을 해야 했죠. 그리고 몇 주 전에 DeepMind의 AlphaGo는 세계에서 제일 어려운 게임 중 하나인 바둑에서 세계 최고수를 이겼습니다. 사실 바둑은 우주에 있는 원자들보다 더 많은 경우의 수를 가지고 있습니다. 그래서 이기기 위해서는 AlphaGo가 직관을 가지도록 개발해야 했습니다. 사실은 일부 수는 AlphaGo의 프로그래머들조차도 AlphaGo가 왜 그렇게 했는지 이해 못 했다고 합니다.
And things are moving really fast. I mean, consider -- in the space of a human lifetime, computers have gone from a child's game to what's recognized as the pinnacle of strategic thought. What's basically happening is computers are going from being like Spock to being a lot more like Kirk. (Laughter)
모든 것이 빠르게 변하고 있습니다. 사람의 생애와 같은 시간 안에 컴퓨터가 아이들의 게임기에서 전략적 사고의 정점으로 인식되는 상황까지 왔습니다. 무슨 일이 일어난 것이냐면 Spock 같은 상태의 컴퓨터가 점점 더 Kirk처럼 되어가는 상황이라고 할 수 있습니다.
Right? From pure logic to intuition. Would you cross this bridge? Most of you are saying, "Oh, hell no!" (Laughter)
순수한 논리로부터 직관으로 이어지는 것입니다. 이 다리를 건너시겠습니까? 대부분이 "싫어요"라고 하시겠죠.
And you arrived at that decision in a split second. You just sort of knew that bridge was unsafe. And that's exactly the kind of intuition that our deep-learning systems are starting to develop right now. Very soon, you'll literally be able to show something you've made, you've designed, to a computer, and it will look at it and say, "Sorry, homie, that'll never work. You have to try again." Or you could ask it if people are going to like your next song, or your next flavor of ice cream. Or, much more importantly, you could work with a computer to solve a problem that we've never faced before. For instance, climate change. We're not doing a very good job on our own, we could certainly use all the help we can get. That's what I'm talking about, technology amplifying our cognitive abilities so we can imagine and design things that were simply out of our reach as plain old un-augmented humans.
결정을 내리는 것은 순간이었을 것입니다. 여러분은 다리가 위험한 것을 아니까요. 그것이 바로 우리가 개발을 시작한 딥러닝 시스템이 가진 직관의 일종입니다. 가까운 시일 내에 여러분이 만들거나 디자인한 것을 컴퓨터에게 보여주면 이렇게 말할 것입니다. '미안한데 작동을 하지 않아 다시 해 봐' 내가 만든 노래를 사람들이 좋아할지를 묻거나 아이스크림의 향도 요청할 수 있을 겁니다. 또는 매우 중요한 일로 이전에 만나지 못했던 문제를 해결하기 위해 컴퓨터로 작업할 수 있습니다. 예를 들어 기후 변화 문제는 인간의 힘만으론 풀지 못하니까 도움받을 수 있는 모든 것을 총동원할 수 있죠. 제가 말하고자 하는 것은 기술은 우리의 인지력을 증폭시킬 수 있고 그런 기술이 없던 시대의 사람들이 하지 못했던 것을 상상하고 디자인할 수 있도록 합니다.
So what about making all of this crazy new stuff that we're going to invent and design? I think the era of human augmentation is as much about the physical world as it is about the virtual, intellectual realm. How will technology augment us? In the physical world, robotic systems. OK, there's certainly a fear that robots are going to take jobs away from humans, and that is true in certain sectors. But I'm much more interested in this idea that humans and robots working together are going to augment each other, and start to inhabit a new space.
그럼 인간이 고안하고 디자인한 새로운 것들을 모조리 만들면 어떨까요? 저는 인간 증강 시대가 가상적이고 지적인 영역만큼이나 현실 세계와도 관련이 깊다고 생각합니다. 어떻게 기술이 인간을 증강시킬까요? 현실 세계에서는 로봇 시스템이 있죠. 우리는 로봇들이 일자리를 뺏을 것을 두려워하고 있는데 몇몇 분야에서는 그럴 것입니다. 하지만 흥미로운 점도 있습니다. 인간과 로봇이 함께 작업하는 것이 서로를 증강시키며 새로운 세상에서 살기 시작할 것입니다.
This is our applied research lab in San Francisco, where one of our areas of focus is advanced robotics, specifically, human-robot collaboration. And this is Bishop, one of our robots. As an experiment, we set it up to help a person working in construction doing repetitive tasks -- tasks like cutting out holes for outlets or light switches in drywall.(Laughter)
이곳은 샌프란시스코에 있는 응용 연구소로서 그곳에서 우리 관심분야 중의 하나는 차세대 로봇인데 특별히 인간과 로봇의 협업입니다. 이건 우리의 로봇 중 하나인 'Bishop'이죠. 실험적으로 공사장에서 벽에 콘센트나 전등 스위치의 구멍을 내는 것 같이 반복적인 일을 하는 사람을 돕기 위해 Bishop을 만들었습니다.
So, Bishop's human partner can tell what to do in plain English and with simple gestures, kind of like talking to a dog, and then Bishop executes on those instructions with perfect precision. We're using the human for what the human is good at: awareness, perception and decision making. And we're using the robot for what it's good at: precision and repetitiveness.
Bishop의 인간 파트너가 개한테 하는 것처럼 간단한 영어나 몸짓으로 무엇을 해야 할지 지시하면 Bishop은 그 지시를 완벽하게 수행하죠. 우리는 인간을 이용하여 인간의 장점인 인식과 지각 그리고 의사결정을 합니다. 로봇을 이용하여 로봇의 장점인 정밀도와 반복을 수행합니다.
Here's another cool project that Bishop worked on. The goal of this project, which we called the HIVE, was to prototype the experience of humans, computers and robots all working together to solve a highly complex design problem. The humans acted as labor. They cruised around the construction site, they manipulated the bamboo -- which, by the way, because it's a non-isomorphic material, is super hard for robots to deal with. But then the robots did this fiber winding, which was almost impossible for a human to do. And then we had an AI that was controlling everything. It was telling the humans what to do, telling the robots what to do and keeping track of thousands of individual components. What's interesting is, building this pavilion was simply not possible without human, robot and AI augmenting each other.
여기 또 다른 멋진 프로젝트가 있습니다. HIVE라는 이 프로젝트의 목표는 인간과 컴퓨터 그리고 로봇이 함께 매우 복잡한 문제를 풀기 위한 시범 경험을 만드는 것입니다. 인간은 노동자의 역할입니다. 그들은 공사 현장을 돌아다니면서 대나무를 다뤘습니다. 대나무는 동일한 형태가 아니어서 로봇이 다루기에는 매우 어렵습니다. 로봇들은 섬유를 감는 작업을 했는데 인간에게 거의 불가능한 일이죠. 그리고 모든 것을 통제하기 위하여 인공지능을 사용했습니다. 인공지능은 인간과 로봇이 무엇을 해야 할지 알려 주고 계속하여 수천 개의 개별 구성 요소를 추적했죠. 흥미로운 점은 이 임시 구조물을 세우는 일은 인간과 로봇 그리고 인공지능이 서로를 증강시키지 않고서는 불가능하다는 것입니다.
OK, I'll share one more project. This one's a little bit crazy. We're working with Amsterdam-based artist Joris Laarman and his team at MX3D to generatively design and robotically print the world's first autonomously manufactured bridge. So, Joris and an AI are designing this thing right now, as we speak, in Amsterdam. And when they're done, we're going to hit "Go, " and robots will start 3D printing in stainless steel, and then they're going to keep printing, without human intervention, until the bridge is finished.
약간 미친 짓 같지만 또 다른 프로젝트도 있습니다. 우리는 Amsterdam에서 활동하는 예술가인 Joris Laarman 및 그의 팀과 함께 MX3D에서 디자인을 만들고 로봇으로 출력하여 세계 최초로 다리를 스스로 만드는 작업을 하고 있습니다. 말씀드린 대로 지금 Amsterdam에서 Joris와 인공 지능이 디자인하고 있습니다. 그들이 작업을 완료해서 우리가 Go버튼을 누르면 로봇은 스테인리스 스틸로 3D 프린팅을 시작할 것입니다. 그들은 인간의 개입 없이 다리가 완성될 때까지 출력을 계속할 겁니다.
So, as computers are going to augment our ability to imagine and design new stuff, robotic systems are going to help us build and make things that we've never been able to make before. But what about our ability to sense and control these things? What about a nervous system for the things that we make?
이렇게 컴퓨터는 새로운 것을 상상하고 디자인하도록 우리의 능력을 증강시킬 것이고 로봇 시스템은 전에는 인간이 만들 수 없었던 것을 만들고 짓도록 도울 텐데요. 하지만 인간이 이러한 것을 판단하고 제어하는 능력은 어떤가요? 우리가 만든 것들을 위한 신경계는 어떨까요?
Our nervous system, the human nervous system, tells us everything that's going on around us. But the nervous system of the things we make is rudimentary at best. For instance, a car doesn't tell the city's public works department that it just hit a pothole at the corner of Broadway and Morrison. A building doesn't tell its designers whether or not the people inside like being there, and the toy manufacturer doesn't know if a toy is actually being played with -- how and where and whether or not it's any fun. Look, I'm sure that the designers imagined this lifestyle for Barbie when they designed her.(Laughter)
우리의 신경계, 인간의 신경계는 우리 주변에서 일어난 모든 것을 파악합니다. 하지만 우리가 만든 것들의 신경계는 이제 시작입니다. 예를 들어 자동차가 도시의 공공 사업국에다 어디의 길모퉁이 도로에 움푹 팬 곳이 있단 말을 못 하고 건물은 디자이너에게 그 안에 있는 사람들이 좋아하는지 아닌지 말하진 않거든요. 그리고 장난감 제조 업체는 장난감을 실제로 갖고 노는 대상이 언제 어디서 즐겁게 혹은 재미없게 노는지 알지 못합니다. 보세요, 분명히 디자이너는 바비 인형을 디자인할 때 이런 삶을 상상했겠죠.
But what if it turns out that Barbie's actually really lonely?(Laughter)
하지만 바비 인형이 현실에선 이렇게 외롭게 있다면서요?
If the designers had known what was really happening in the real world with their designs -- the road, the building, Barbie -- they could've used that knowledge to create an experience that was better for the user. What's missing is a nervous system connecting us to all of the things that we design, make and use. What if all of you had that kind of information flowing to you from the things you create in the real world? With all of the stuff we make, we spend a tremendous amount of money and energy -- in fact, last year, about two trillion dollars -- convincing people to buy the things we've made. But if you had this connection to the things that you design and create after they're out in the real world, after they've been sold or launched or whatever, we could actually change that, and go from making people want our stuff, to just making stuff that people want in the first place.
디자이너들이 현실에서 그들이 디자인한 도로와 건물과 바비에게 무슨 일이 일어났는지 알면 그 정보를 사용자에게 더 나은 것을 만들기 위해서 사용할 수도 있겠죠. 부족한 부분은 신경계로서 우리가 디자인하고 만들고 사용하는 것을 모두 연결하는 신경계입니다. 만일 여러분 모두가 여러분이 만든 것에 대한 충분한 정보를 가지고 있다면 어떨까요? 우리가 만드는 모든 것들에서 수많은 시간과 에너지가 사용됩니다. 작년에 약 2조 달러가 제품을 사도록 소비자를 설득하는 데 사용되었습니다. 하지만 만일 당신이 디자인하고 만든 것이 현실 세계에 출시된 후라도 신경 시스템과 연결된다면 그것들이 팔린 후나 출시하는 시점이나 언제라도. 우리는 그것을 바꿀 수도 있고 제품을 소비자가 원하도록 만드는 것에서 처음부터 소비자가 원하는 것을 만들게 될 것입니다.
The good news is, we're working on digital nervous systems that connect us to the things we design. We're working on one project with a couple of guys down in Los Angeles called the Bandito Brothers and their team. And one of the things these guys do is build insane cars that do absolutely insane things. These guys are crazy -- (Laughter)
희소식은 지금 개발 중인 디지털 신경계가 우리를 디자인한 것들과 연결해 준다는 겁니다. 저희는 현재 LA에서 Bandito형제 및 그의 팀과 함께 프로젝트를 하나 진행 중입니다. 그들이 만든 것 중 하나로 광란의 질주를 하는 차가 있는데 제정신이 아니에요. 그들은 미쳤죠.
in the best way. And what we're doing with them is taking a traditional race-car chassis and giving it a nervous system.
그게 최선이겠지만요. 저희가 진행한 일은 전통적인 경주차의 차대에 신경계를 제공한 것입니다.
So we instrumented it with dozens of sensors, put a world-class driver behind the wheel, took it out to the desert and drove the hell out of it for a week. And the car's nervous system captured everything that was happening to the car. We captured four billion data points; all of the forces that it was subjected to. And then we did something crazy. We took all of that data, and plugged it into a generative-design AI we call "Dreamcatcher." So what do get when you give a design tool a nervous system, and you ask it to build you the ultimate car chassis? You get this. This is something that a human could never have designed. Except a human did design this, but it was a human that was augmented by a generative-design AI, a digital nervous system and robots that can actually fabricate something like this.
그래서 수십 개의 센서를 달고 세계적인 수준의 운전자를 태워 사막으로 가서 일주일간 사정없이 달렸습니다. 자동차의 신경계는 자동차에서 일어나는 모든 일을 저장했습니다. 우리는 차에 가해진 모든 힘들을 포함한 40억 개의 데이터를 얻었습니다. 그 후 정신 나간 짓 같지만 우리는 모든 데이터를 모아서 디자인을 하는 인공 지능인 'Dreamcatcher'에 넣었습니다. 그렇게 우리는 신경계를 디자인 도구에게 주었고 최고로 좋은 차대를 만들라고 요청했다면 어떻게 될까요? 이것을 얻을 수 있습니다. 이는 이전에 인간이 한 번도 디자인하지 않았던 것입니다. 인간이 한 디자인을 제외하고 디자인을 만드는 인공 지능으로 증강된 인간이 한 겁니다. 디지털 신경계와 로봇은 실제로 이런 것을 제작할 수 있습니다.
So if this is the future, the Augmented Age, and we're going to be augmented cognitively, physically and perceptually, what will that look like? What is this wonderland going to be like?
만일 이것이 미래이고, 증강 시대라면, 우리는 인지적, 육체적, 지각적으로 증강될 것이고 그러면 무엇처럼 보일까요? 그런 세상은 이렇지 않을까요?
I think we're going to see a world where we're moving from things that are fabricated to things that are farmed. Where we're moving from things that are constructed to that which is grown. We're going to move from being isolated to being connected. And we'll move away from extraction to embrace aggregation. I also think we'll shift from craving obedience from our things to valuing autonomy.
제 생각에는 우리는 이제 물건을 제작하는 것에서 물건을 키우는 것으로 옮겨가는 세상을 볼 것입니다. 건설하는 것에서 성장하는 것으로 옮겨갈 것입니다. 고립된 것에서 연결되는 것으로 이동할 것입니다. 그리고 또한 추출하는 것에서 축적하는 방향으로 나아갈 겁니다. 또한 주변의 사물에 지시하기보다는 자율성에 가치를 두는 쪽으로 변할 것입니다.
Thanks to our augmented capabilities, our world is going to change dramatically. We're going to have a world with more variety, more connectedness, more dynamism, more complexity, more adaptability and, of course, more beauty. The shape of things to come will be unlike anything we've ever seen before. Why? Because what will be shaping those things is this new partnership between technology, nature and humanity. That, to me, is a future well worth looking forward to. Thank you all so much.
인간의 능력이 증강하는 것에 감사하고 우리의 세상은 극적인 변화를 맞이할 겁니다. 세상은 더욱 다양해지고 더욱 연결되며 더욱 역동적이면서 더욱 복잡해질 것이고 더욱 수용적일 것이면서 당연스럽게 더 아름다울 것입니다. 앞으로 다가올 모습은 이전의 어떤 것과도 다를 것입니다. 왜 그럴까요? 새로운 세상의 모습은 기술과 자연과 인간 사이의 새로운 협력 관계 덕분입니다. 저에겐 기대할 만한 가치가 충분한 미래입니다. 감사합니다.