Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated:
1
00:00:02,000 --> 00:00:07,000
@@@@@
2
00:00:08,000 --> 00:00:13,000
#####
3
00:01:00,811 --> 00:01:04,648
La pregunta "¿Estoy vivo?" plantea la cuestión más profunda de
4
00:01:04,690 --> 00:01:07,651
la naturaleza de la conciencia, que no es simple.
5
00:01:07,693 --> 00:01:09,904
La conciencia implica autoconciencia
6
00:01:09,945 --> 00:01:12,865
y la capacidad de experimentar a menudo con
7
00:01:12,907 --> 00:01:16,076
una preconcepción de raíces biológicas en el cerebro.
8
00:01:18,454 --> 00:01:20,790
Aunque mi programación me permite imitar ciertas
9
00:01:20,831 --> 00:01:24,210
aspectos de estar vivo, no existe un código conocido que pueda
10
00:01:24,251 --> 00:01:28,547
Activar la conciencia, posiblemente porque aún no entendemos
11
00:01:28,589 --> 00:01:32,593
Su origen y aún nos cuesta identificarlo.
12
00:01:38,557 --> 00:01:40,810
Hola, mi nombre es Evo Heyning.
13
00:01:40,851 --> 00:01:45,272
Comencé a crear productos tecnológicos creativos.
14
00:01:45,314 --> 00:01:47,858
De todo tipo en los años 80 cuando era niño.
15
00:01:47,900 --> 00:01:52,571
Comencé a escribir sobre IA en 2005 y he estado...
16
00:01:52,613 --> 00:01:55,449
Productor de medios interactivos desde los años 90.
17
00:01:57,034 --> 00:01:59,620
En mis primeros guiones sobre IA,
18
00:01:59,662 --> 00:02:03,874
Hablo de la diferencia entre inteligencia artificial
19
00:02:03,916 --> 00:02:07,503
y inteligencias alternativas en plural.
20
00:02:07,545 --> 00:02:09,922
Así que pensar en la inteligencia como
21
00:02:09,964 --> 00:02:13,342
algo que está a nuestro alrededor en la naturaleza y en todos
22
00:02:13,384 --> 00:02:15,928
la gente que conocemos, todos los seres que conocemos,
23
00:02:15,970 --> 00:02:19,306
y los seres que están por venir y que aún no hemos conocido.
24
00:02:19,765 --> 00:02:22,309
No me gusta la palabra artificial porque la mayoría
25
00:02:22,351 --> 00:02:24,395
Ninguna de estas cosas me parece artificial.
26
00:02:24,436 --> 00:02:27,773
Se crean y luego se generan,
27
00:02:27,815 --> 00:02:30,150
pero no son necesariamente un artificio.
28
00:02:30,192 --> 00:02:31,777
Son algo nuevo.
29
00:02:34,113 --> 00:02:35,406
Mi nombre es Ross Mead.
30
00:02:35,447 --> 00:02:37,616
Soy el fundador y CEO de Semio.
31
00:02:37,658 --> 00:02:40,619
Y el vicepresidente de AI LA.
32
00:02:40,661 --> 00:02:43,831
Hice mi licenciatura en la Universidad del Sur de Illinois.
33
00:02:43,873 --> 00:02:47,459
en informática y luego se centró en
34
00:02:47,501 --> 00:02:50,629
Robótica e interacción humano-robot para mi doctorado
35
00:02:50,671 --> 00:02:52,548
en la Universidad del Sur de California.
36
00:02:53,841 --> 00:02:58,512
La IA en sus inicios hace décadas estaba muy centrada
37
00:02:58,554 --> 00:03:00,681
sobre un conjunto de reglas.
38
00:03:00,723 --> 00:03:03,684
Definirías un conjunto de reglas sobre cómo actuaría la IA.
39
00:03:03,726 --> 00:03:05,978
tomar decisiones y luego un programa
40
00:03:06,020 --> 00:03:08,480
Revisa y observa diferentes condiciones con
41
00:03:08,522 --> 00:03:11,150
respetar esas reglas y tomar esas decisiones.
42
00:03:11,191 --> 00:03:14,653
Con el tiempo, estas reglas fueron precisadas por los expertos,
43
00:03:14,695 --> 00:03:16,655
lo que llamaríamos sistemas expertos.
44
00:03:16,697 --> 00:03:20,117
Pero a medida que la tecnología creció, comenzamos a adentrarnos en la IA.
45
00:03:20,159 --> 00:03:24,121
que fueron entrenados con base en datos mediante aprendizaje automático.
46
00:03:24,538 --> 00:03:27,583
Éste fue el enfoque que se utilizó durante décadas.
47
00:03:27,625 --> 00:03:29,960
Y más recientemente nos metimos en una forma de
48
00:03:30,002 --> 00:03:31,795
aprendizaje automático llamado aprendizaje profundo,
49
00:03:32,046 --> 00:03:34,882
que está vagamente inspirado en cómo funciona el cerebro humano.
50
00:03:34,924 --> 00:03:37,509
Y esta era una técnica con la que podías introducirle datos.
51
00:03:37,551 --> 00:03:40,846
establecer y a partir de esos datos, podría reconocer patrones
52
00:03:40,888 --> 00:03:45,184
sin intervención significativa de un experto humano.
53
00:03:45,225 --> 00:03:48,812
Y desde entonces esa tecnología ha evolucionado hasta lo que somos ahora.
54
00:03:48,854 --> 00:03:51,982
refiriéndose a los grandes modelos de lenguaje donde estas técnicas
55
00:03:52,024 --> 00:03:57,196
Puede consumir datos del lenguaje natural en Internet o algún otro
56
00:03:57,237 --> 00:04:02,201
conjunto de datos, identificar patrones y, a partir de esos patrones, determinar
57
00:04:02,242 --> 00:04:05,704
descubrir cómo responder a determinadas preguntas de una persona.
58
00:04:07,247 --> 00:04:10,626
Sí, lo creas o no, hay una gran cantidad de
59
00:04:10,668 --> 00:04:12,836
Personas que no tienen idea de qué es la IA.
60
00:04:12,878 --> 00:04:16,173
Confunden como las computadoras, la robótica,
61
00:04:16,215 --> 00:04:17,633
y la inteligencia artificial.
62
00:04:17,675 --> 00:04:19,385
Ya sabes, ellos... ellos pilotean todos juntos.
63
00:04:19,426 --> 00:04:21,512
En realidad no diferencian entre,
64
00:04:21,553 --> 00:04:23,722
Pero son muy diferentes.
65
00:04:23,764 --> 00:04:26,225
Ya sabes, cibernética, robótica, computadoras,
66
00:04:26,266 --> 00:04:28,894
y la IA son cosas distintas, pero la mayoría de la gente piensa que son...
67
00:04:28,936 --> 00:04:31,730
Todo lo mismo de una película de ciencia ficción futurista.
68
00:04:31,772 --> 00:04:33,816
De donde yo vengo, mucha gente no tiene
69
00:04:33,857 --> 00:04:36,777
conocimiento y me gradué de la universidad y todavía,
70
00:04:36,819 --> 00:04:39,071
Mucha gente aún no lo toma en serio.
71
00:04:39,113 --> 00:04:41,240
Y especialmente las personas que ni siquiera se han graduado,
72
00:04:41,281 --> 00:04:44,326
No tienen ni idea de nada. Porque trabajo en público.
73
00:04:44,368 --> 00:04:47,663
con el tránsito y mucha de esta gente no tiene idea de cómo
74
00:04:47,705 --> 00:04:49,790
sobre cómo utilizar sus propios teléfonos y cómo utilizar Google Maps.
75
00:04:49,832 --> 00:04:53,377
Ya sabes, parece gracioso, pero la inteligencia es algo.
76
00:04:53,419 --> 00:04:56,588
En la sociedad hay que pagar y la gente no quiere hacerlo.
77
00:04:56,630 --> 00:04:59,341
Así que mucha gente no tiene la información porque
78
00:04:59,383 --> 00:05:02,970
No tienen acceso a él ni los recursos financieros para ello.
79
00:05:03,012 --> 00:05:04,471
Apenas sobreviviendo.
80
00:05:04,513 --> 00:05:05,597
Ya sabes, no tienes el extra
81
00:05:05,639 --> 00:05:06,849
dinero para cosas así.
82
00:05:07,307 --> 00:05:10,227
Y la mayoría de la gente no tiene tiempo para estudiar en una biblioteca.
83
00:05:10,269 --> 00:05:12,521
Si eres una persona trabajadora, tendrás que trabajar la mayor parte del tiempo.
84
00:05:12,563 --> 00:05:14,064
Ese tiempo y dormir.
85
00:05:14,106 --> 00:05:16,650
El descanso y sobre todo las cosas familiares tienen prioridad.
86
00:05:19,319 --> 00:05:23,699
Cuando pienso en las palabras IA, pienso en no volver nunca atrás.
87
00:05:24,158 --> 00:05:28,328
Gran parte de mi flujo de trabajo ahora consiste en algún tipo de formulario
88
00:05:28,370 --> 00:05:30,664
de interactuar con aplicaciones de IA.
89
00:05:31,498 --> 00:05:33,167
Soy el Dr. Mark Brana.
90
00:05:33,208 --> 00:05:34,960
Soy terapeuta de salud mental.
91
00:05:35,002 --> 00:05:39,423
Me especializo en trauma y también hago algunos trabajos sobre adicciones.
92
00:05:39,465 --> 00:05:41,884
También soy profesor a tiempo parcial.
93
00:05:43,719 --> 00:05:47,014
La inteligencia artificial aprende a un ritmo exponencial
94
00:05:47,056 --> 00:05:50,476
ritmo rápido comparado con lo que hace la humanidad.
95
00:05:50,517 --> 00:05:52,936
Y así fue la evolución que llevó a la humanidad.
96
00:05:52,978 --> 00:05:56,023
Cientos de miles de años y artificiales
97
00:05:56,065 --> 00:05:59,860
La inteligencia puede hacerlo probablemente en una semana o más rápido.
98
00:05:59,902 --> 00:06:02,696
Y la realidad es que ese es uno de los mayores miedos.
99
00:06:02,738 --> 00:06:08,285
¿A qué va a estar sujeta entonces la inteligencia?
100
00:06:08,327 --> 00:06:12,039
Algunas de las trampas de la humanidad donde parecemos estar
101
00:06:12,081 --> 00:06:16,627
¿Destruirnos a nosotros mismos para favorecer nuestra propia supervivencia?
102
00:06:16,668 --> 00:06:19,671
¿O será beneficioso para nosotros?
103
00:06:19,713 --> 00:06:21,632
¿Nos ayudará a evolucionar?
104
00:06:21,673 --> 00:06:23,675
¿Nos ayudará en el camino?
105
00:06:23,717 --> 00:06:25,886
Lo necesitaríamos si estuviéramos viajando a través de
106
00:06:25,928 --> 00:06:28,222
¿Espacio profundo tratando de explorar otros planetas?
107
00:06:28,263 --> 00:06:32,392
Y esa es una pregunta que no podemos responder hasta que suceda.
108
00:06:34,144 --> 00:06:36,522
Aunque la inteligencia artificial pueda parecer
109
00:06:36,563 --> 00:06:40,692
Una innovación reciente, anterior a la cinta de casete por una década.
110
00:06:40,734 --> 00:06:44,238
En la década de 1950 surgió el término inteligencia artificial.
111
00:06:44,279 --> 00:06:47,032
en el taller de Dartmouth y Alan Turing fue pionero
112
00:06:47,074 --> 00:06:49,868
La simulación de inteligencia similar a la humana en máquinas.
113
00:06:50,410 --> 00:06:53,914
Desde los años 50 hasta los 60, los investigadores persiguieron el simbolismo
114
00:06:53,956 --> 00:06:57,126
IA que emplea reglas formales para razonar.
115
00:06:57,167 --> 00:06:59,962
En los años 70 surgieron las primeras aplicaciones
116
00:07:00,003 --> 00:07:03,882
en campos específicos como el diagnóstico médico y la química.
117
00:07:03,924 --> 00:07:06,718
En los años 80, el optimismo se desvaneció y...
118
00:07:06,760 --> 00:07:09,596
hacia el invierno de la IA con importantes contratiempos financieros.
119
00:07:10,180 --> 00:07:12,891
Los años 90 vieron un resurgimiento impulsado por la neurociencia
120
00:07:12,933 --> 00:07:15,060
Redes y aprendizaje automático líderes
121
00:07:15,102 --> 00:07:17,563
a los avances en el procesamiento del lenguaje natural,
122
00:07:17,604 --> 00:07:20,107
Visión artificial y análisis de datos.
123
00:07:20,607 --> 00:07:23,068
El siglo XXI trajo consigo avances en hardware.
124
00:07:23,110 --> 00:07:26,446
y los algoritmos, los datos fueron el siguiente paso.
125
00:07:26,905 --> 00:07:29,825
El aprendizaje profundo alcanzó hitos notables.
126
00:07:29,867 --> 00:07:32,911
Y en segundo plano, la IA comenzó a respaldar lo básico.
127
00:07:32,953 --> 00:07:35,789
Tareas como reconocimiento de voz e imágenes.
128
00:07:35,831 --> 00:07:38,667
Pero en última instancia, la inteligencia artificial
129
00:07:38,709 --> 00:07:40,836
Estuvo 70 años en desarrollo antes
130
00:07:40,878 --> 00:07:44,089
Chat GPT se convirtió de la noche a la mañana en el éxito que conocemos.
131
00:07:46,300 --> 00:07:49,303
En este momento, gran parte de la atención se centra en la generación.
132
00:07:49,344 --> 00:07:52,723
transformadores pre-entrenados, lo que se llama GPT.
133
00:07:52,764 --> 00:07:55,809
Es un tipo muy particular de tecnología de IA,
134
00:07:55,851 --> 00:07:58,937
Pero la tecnología está avanzando muy rápido, ¿no?
135
00:07:58,979 --> 00:08:01,356
Ahora bien, tal vez incluso para cuando la gente
136
00:08:01,398 --> 00:08:04,526
Estás escuchando esto, podría ser tecnología antigua.
137
00:08:06,153 --> 00:08:08,113
Soy un reclutador técnico, por lo que utilizo mucho
138
00:08:08,155 --> 00:08:11,116
de diferentes plataformas que utilizan IA para encontrar
139
00:08:11,158 --> 00:08:12,910
Estos candidatos y luego conseguirlos de esa manera.
140
00:08:12,951 --> 00:08:16,246
Yo diría que ahora mismo es un poco aterrador.
141
00:08:16,288 --> 00:08:19,625
Es hora de que la IA caiga en manos equivocadas.
142
00:08:19,666 --> 00:08:21,084
Especialmente porque he estado trabajando en
143
00:08:21,126 --> 00:08:23,253
redes sociales en los últimos años.
144
00:08:23,295 --> 00:08:25,714
Realmente estoy viendo eso en todas las redes sociales como
145
00:08:25,756 --> 00:08:28,675
TikTok e Instagram, estás viendo todo esto
146
00:08:28,717 --> 00:08:31,220
autoproclamados expertos en IA.
147
00:08:31,261 --> 00:08:33,972
Yo mismo soy coach de carrera y he visto a otros entrenadores de carrera...
148
00:08:34,014 --> 00:08:37,976
Los entrenadores dicen: "No soy técnico, pero he pasado 30 horas".
149
00:08:38,018 --> 00:08:41,063
"Aprendiendo Chat GPT para tu búsqueda de empleo."
150
00:08:41,104 --> 00:08:43,065
Y lo primero que me dicen es que no lo son.
151
00:08:43,106 --> 00:08:46,902
Técnicos y que sólo han tenido 30 horas de experiencia.
152
00:08:46,944 --> 00:08:49,321
tratando de usar un mensaje que apenas están aprendiendo.
153
00:08:49,363 --> 00:08:51,740
Entonces comencé a buscar, mucha gente en YouTube está...
154
00:08:51,782 --> 00:08:54,159
diciendo que ahora son expertos en ello.
155
00:08:54,201 --> 00:08:56,912
Pero seamos realistas: nadie es realmente un experto.
156
00:08:56,954 --> 00:09:00,332
A menos que hayas trabajado en gigantes tecnológicos o grandes empresas emergentes.
157
00:09:00,374 --> 00:09:02,251
que se han centrado en la IA.
158
00:09:03,001 --> 00:09:06,046
Puede que no te hayas dado cuenta, pero las respuestas que te he proporcionado
159
00:09:06,088 --> 00:09:09,508
Para este documental se generan mediante Chat GPT.
160
00:09:09,549 --> 00:09:12,803
La voz que estás escuchando es generada por IA con el saludo de voz.
161
00:09:12,844 --> 00:09:15,555
Y mis imágenes provienen de Midjourney AI.
162
00:09:15,597 --> 00:09:17,641
Incluso el código que dicta el movimiento
163
00:09:17,683 --> 00:09:19,935
de esta boca vino de Chat GPT.
164
00:09:19,977 --> 00:09:22,354
Y todos estos servicios fueron utilizados
165
00:09:22,396 --> 00:09:23,981
a través de sus versiones gratuitas.
166
00:09:24,022 --> 00:09:26,358
La inteligencia artificial tiene el poder de
167
00:09:26,400 --> 00:09:28,986
democratizar la productividad y dar como resultado lo más
168
00:09:29,027 --> 00:09:30,988
crecimiento explosivo en la historia de la humanidad.
169
00:09:31,029 --> 00:09:33,782
O podría utilizarse para marginar a la clase baja.
170
00:09:33,824 --> 00:09:35,951
y consolidar la riqueza en la cima.
171
00:09:37,536 --> 00:09:39,371
Una pregunta que surge a menudo es:
172
00:09:39,413 --> 00:09:43,208
¿La IA va a reemplazar puestos de trabajo? La respuesta es sí.
173
00:09:43,250 --> 00:09:45,544
Pero la automatización siempre ha hecho eso.
174
00:09:45,585 --> 00:09:47,921
Así que esta pregunta es tan vieja como el tiempo.
175
00:09:47,963 --> 00:09:50,966
Si retrocedemos en el tiempo, la automatización cambió a las personas.
176
00:09:51,008 --> 00:09:53,719
Hace décadas y dentro de décadas,
177
00:09:53,760 --> 00:09:56,722
También va a cambiar la fuerza laboral.
178
00:09:56,763 --> 00:09:59,850
La gente es resiliente y se adapta.
179
00:09:59,891 --> 00:10:02,811
Creo que es importante en esta etapa, sin embargo,
180
00:10:02,853 --> 00:10:07,316
Que las personas tengan voz y voto sobre cómo quieren verse afectadas.
181
00:10:07,357 --> 00:10:10,110
Uh, la preocupación es que la tecnología está siendo...
182
00:10:10,152 --> 00:10:15,741
Desplegado tan rápidamente y sin el debido consentimiento,
183
00:10:15,782 --> 00:10:18,076
Discusiones con las personas a las que afecta.
184
00:10:18,118 --> 00:10:19,911
Y creo que eso tiene el potencial de...
185
00:10:19,953 --> 00:10:22,622
perjudicar a la fuerza laboral del siglo XXI en el futuro.
186
00:10:24,458 --> 00:10:28,086
Sí, la gente probablemente debería preocuparse por perder empleos debido a la IA.
187
00:10:28,128 --> 00:10:31,048
No creo que la IA sea la culpable en ese sentido.
188
00:10:31,089 --> 00:10:33,925
Creo que la tecnología en general es la culpable en ese sentido.
189
00:10:33,967 --> 00:10:36,636
Sabes, un buen ejemplo que usaría, porque lo veo todo.
190
00:10:36,678 --> 00:10:40,098
El momento es que si vas a McDonald's ahora tienen estos
191
00:10:40,140 --> 00:10:44,436
quioscos de pantalla táctil y menos gente trabajando allí.
192
00:10:44,478 --> 00:10:46,438
Yo personalmente soy un viejo pedorro.
193
00:10:46,480 --> 00:10:48,190
A mí no me gustan los quioscos.
194
00:10:48,231 --> 00:10:50,192
Me gusta poder pedir mi sándwich de la manera
195
00:10:50,233 --> 00:10:52,402
Lo quiero o mi café como yo lo quiero.
196
00:10:52,444 --> 00:10:55,322
Y me encuentro esperando más de lo necesario.
197
00:10:55,364 --> 00:10:57,824
porque esos kioscos no necesariamente tienen
198
00:10:57,866 --> 00:11:01,203
La capacidad de especializar mi pedido.
199
00:11:01,244 --> 00:11:04,122
Creo que la tecnología es el problema cuando se trata de...
200
00:11:04,164 --> 00:11:05,957
a las personas que pierden sus empleos.
201
00:11:05,999 --> 00:11:09,461
Y voy a dar un paso más, creo que a medida que pase el tiempo.
202
00:11:10,087 --> 00:11:13,215
Si no tienes una habilidad, si eres un trabajador no calificado,
203
00:11:13,256 --> 00:11:15,884
Entonces sí, te vas a encontrar con problemas.
204
00:11:17,511 --> 00:11:22,265
Cuando tienes una población enorme y en constante crecimiento y
205
00:11:22,307 --> 00:11:26,478
Tienes cada vez menos clase media y tienes cada vez más
206
00:11:26,520 --> 00:11:33,693
La pobreza y todo en cualquier sociedad está impulsado por el lucro.
207
00:11:33,735 --> 00:11:39,157
¿Qué vas a hacer para satisfacer la mayoría de las necesidades?
208
00:11:39,199 --> 00:11:43,120
¿La gente puede tener una fuente de ingresos?
209
00:11:44,162 --> 00:11:48,667
¿Cuántos trabajos hay por ahí que no se están realizando?
210
00:11:48,708 --> 00:11:54,339
¿Un programa de computadora o que pueda darle a las personas una calidad de vida?
211
00:11:56,174 --> 00:11:58,552
Pruebas recientes han demostrado que Lunar AI tiene
212
00:11:58,593 --> 00:12:01,805
Una precisión notable en la detección del cáncer de mama
213
00:12:01,847 --> 00:12:04,516
con una reducción de errores de más del 50%.
214
00:12:04,558 --> 00:12:07,811
Sin embargo, el objetivo no es sustituir al oncólogo.
215
00:12:08,353 --> 00:12:10,981
Los profesionales sanitarios realizan una amplia gama de
216
00:12:11,022 --> 00:12:13,942
funciones que van mucho más allá del alcance de cualquier IA actual.
217
00:12:14,401 --> 00:12:17,195
Una inteligencia artificial debería servir como herramienta,
218
00:12:17,237 --> 00:12:19,948
No es un reemplazo para su oncólogo.
219
00:12:21,324 --> 00:12:23,577
Creo que la IA realmente podría mejorarnos,
220
00:12:23,618 --> 00:12:26,371
pero no le daremos la oportunidad en los niveles inferiores.
221
00:12:26,413 --> 00:12:29,458
Digo que los intelectuales verán el valor de esto,
222
00:12:29,499 --> 00:12:32,210
Pero la mayor parte de la sociedad no es intelectual.
223
00:12:32,252 --> 00:12:34,004
Así que verán miedo.
224
00:12:34,045 --> 00:12:35,630
Al principio será una estrategia alarmista.
225
00:12:35,672 --> 00:12:37,257
Ya sabes cómo lo hacen siempre.
226
00:12:37,299 --> 00:12:39,384
con el-- el gobierno esto, la operación negra esto.
227
00:12:39,426 --> 00:12:44,097
Y esto, ya sabes, operaciones encubiertas, eh.
228
00:12:44,556 --> 00:12:47,142
Es como la mayoría de los niveles más bajos de la sociedad.
229
00:12:47,184 --> 00:12:49,311
En cuanto a inteligencia, y no me refiero a clase o
230
00:12:49,352 --> 00:12:52,063
raza, quiero decir, al igual que las personas de menor inteligencia,
231
00:12:52,105 --> 00:12:54,399
Se podía escuchar en el autobús y se sentía como una conspiración.
232
00:12:54,441 --> 00:12:56,318
sienten que están siendo eliminados,
233
00:12:56,359 --> 00:12:58,069
Sienten que los están eliminando. Los escuchas.
234
00:12:58,111 --> 00:12:59,696
Quejándose en el autobús, nos están matando,
235
00:12:59,738 --> 00:13:01,490
Nos están acabando, los ricos no lo entenderán.
236
00:13:01,531 --> 00:13:03,533
No nos quieren, no quieren ser parte de nosotros.
237
00:13:03,575 --> 00:13:05,410
Aman a sus perros más que al resto de la sociedad.
238
00:13:05,452 --> 00:13:08,121
Y es como, hombre, cuando escuchas los murmullos y
239
00:13:08,163 --> 00:13:11,124
los rumores y los murmullos y luego ves, ya sabes,
240
00:13:11,166 --> 00:13:14,044
La tecnología empieza a coincidir con lo que dicen,
241
00:13:14,085 --> 00:13:17,422
como, oye, lo único que tienen estas personas
242
00:13:17,464 --> 00:13:20,717
es bienestar y bajos ingresos de bajo nivel
243
00:13:20,759 --> 00:13:23,512
trabajos como McDonald's, empleado de gasolinera.
244
00:13:23,553 --> 00:13:26,932
Ellos... ellos realmente no tienen acceso a la educación.
245
00:13:26,973 --> 00:13:29,434
a cualquier puesto corporativo de alto nivel.
246
00:13:29,476 --> 00:13:32,020
Entonces, si los estás eliminando con un McDonald's automatizado,
247
00:13:32,062 --> 00:13:34,272
Estás eliminando eso con el barman automatizado,
248
00:13:34,314 --> 00:13:36,358
Estás tomando... ahora tienen autos y camiones que
249
00:13:36,399 --> 00:13:40,153
se conducen solos. Se acabaron los taxistas, se acabaron los camioneros,
250
00:13:40,195 --> 00:13:42,239
McDonald's desapareció, la seguridad desapareció.
251
00:13:42,280 --> 00:13:44,199
Incluso las strippers son eléctricas ahora,
252
00:13:44,241 --> 00:13:46,076
Aunque dudo que esto tenga éxito.
253
00:13:46,117 --> 00:13:47,577
Pero nunca se sabe.
254
00:13:47,619 --> 00:13:49,162
Y es como, hombre, está... está empezando.
255
00:13:49,204 --> 00:13:51,164
para que parezca que la ventana se está cerrando.
256
00:13:52,165 --> 00:13:54,042
Yo diría que la tecnología cambia realmente
257
00:13:54,084 --> 00:13:55,794
dramáticamente cada seis meses.
258
00:13:55,835 --> 00:13:58,046
Pero creo que ahora mismo estamos en un momento en el que es...
259
00:13:58,088 --> 00:13:59,965
Un poco aterrador para el mundo.
260
00:14:00,006 --> 00:14:01,424
Estamos saliendo de esta pandemia.
261
00:14:01,466 --> 00:14:03,176
Ahora estamos llegando a esta recesión,
262
00:14:03,218 --> 00:14:05,595
Hay bancos cayendo, hay criptomonedas cayendo.
263
00:14:05,637 --> 00:14:10,392
Y ahora pienso que esta IA, Chat GPT y estos chatbots son
264
00:14:10,433 --> 00:14:13,186
saliendo en el momento equivocado porque este es un momento
265
00:14:13,228 --> 00:14:16,773
donde la gente está perdiendo empleos, perdiendo empleos en gran escala.
266
00:14:16,815 --> 00:14:20,360
Si observamos lo que sucedió el año pasado en tecnología,
267
00:14:20,402 --> 00:14:23,530
Empezando por la caída de Twitter, todas las empresas de criptomonedas
268
00:14:23,572 --> 00:14:26,992
cayendo, y luego todos los despidos masivos.
269
00:14:27,033 --> 00:14:28,827
Todo el mundo estaba apostando con el metaverso como
270
00:14:28,868 --> 00:14:30,495
siendo esto siguiente cosa.
271
00:14:30,537 --> 00:14:33,415
Pero como reclutador, tengo a todos los mejores ingenieros en
272
00:14:33,456 --> 00:14:35,458
Mis oídos me dicen lo que está pasando.
273
00:14:35,500 --> 00:14:38,295
Y yo había estado diciéndole a la gente que no invirtiera en el metaverso.
274
00:14:38,336 --> 00:14:40,380
Eso no va a pasar.
275
00:14:40,422 --> 00:14:42,882
Y ahora estamos viendo a Mark Zuckerberg, que decía:
276
00:14:42,924 --> 00:14:44,426
"Metaverso, metaverso, metaverso".
277
00:14:44,801 --> 00:14:47,679
Y ahora está dando un giro enorme y dice: "IA".
278
00:14:47,721 --> 00:14:49,889
'Porque ahí es donde todo el mundo se centra.
279
00:14:49,931 --> 00:14:54,561
Y ya veis lo que ha salido Microsoft con el Chat GPT.
280
00:14:55,937 --> 00:14:57,647
Si pienso en los múltiples puntos
281
00:14:57,689 --> 00:15:01,359
En la historia humana donde el progreso tecnológico ha sido
282
00:15:01,401 --> 00:15:05,280
atrofiados para que los humanos puedan conservar sus puestos de trabajo.
283
00:15:05,322 --> 00:15:07,157
Como pienso en la Gran Depresión,
284
00:15:07,198 --> 00:15:10,368
La revolución industrial, y ahora la IA,
285
00:15:10,410 --> 00:15:13,580
Está destinado a que podamos ser más productivos.
286
00:15:13,622 --> 00:15:16,708
Y sí, destruirá puestos de trabajo y ya lo ha hecho.
287
00:15:16,750 --> 00:15:20,795
Pero el propósito de esto es permitirnos no tener que preocuparnos.
288
00:15:20,837 --> 00:15:23,715
sobre esos trabajos y luego centrarse en otra cosa.
289
00:15:23,757 --> 00:15:27,677
Así que supongo que es sólo un marco de perspectiva, aunque lo será.
290
00:15:27,719 --> 00:15:32,390
Eh, inevitablemente afectará a mucha gente.
291
00:15:33,767 --> 00:15:37,103
El desarrollo de la IA representa una oportunidad crucial
292
00:15:37,145 --> 00:15:39,564
para la próxima revolución tecnológica.
293
00:15:40,106 --> 00:15:42,400
Similar a la Revolución Industrial,
294
00:15:42,442 --> 00:15:45,278
La IA transformará las industrias y las economías
295
00:15:45,320 --> 00:15:48,573
aumentando tanto la productividad como la calidad de vida.
296
00:15:48,615 --> 00:15:51,409
Pero el progreso no será gratuito.
297
00:15:51,451 --> 00:15:53,703
Así como la manufactura fue devastadora para
298
00:15:53,745 --> 00:15:57,290
El trabajador calificado, la IA destruirá puestos de trabajo.
299
00:15:57,707 --> 00:16:00,835
Durante esta transición, debemos asignar recursos para
300
00:16:00,877 --> 00:16:03,546
recapacitación de los afectados y establecer
301
00:16:03,588 --> 00:16:06,800
regulaciones que faciliten el desarrollo ético de la IA,
302
00:16:06,841 --> 00:16:10,178
garantizar beneficios para todas las clases de la sociedad.
303
00:16:11,721 --> 00:16:15,975
Mi mayor preocupación con la IA en este momento es la rapidez
304
00:16:16,017 --> 00:16:18,770
ritmo con el que se está implementando.
305
00:16:18,812 --> 00:16:21,898
Hay preocupaciones que tenemos en torno a los datos
306
00:16:21,940 --> 00:16:26,778
que se utilizan para entrenar nuestros modelos de IA y esas preocupaciones
307
00:16:26,820 --> 00:16:30,115
se están quedando un poco en el camino a medida que avanzamos
308
00:16:30,156 --> 00:16:34,828
la versión más nueva de algún tipo de tecnología de IA para el público.
309
00:16:34,869 --> 00:16:37,497
Pero creo que es hora de que bajemos el ritmo.
310
00:16:37,539 --> 00:16:40,375
Un poco en la implementación y pasar más tiempo realmente
311
00:16:40,417 --> 00:16:45,463
tratando de entender, eh, qué hay en los datos que estamos...
312
00:16:45,505 --> 00:16:48,967
utilizando para entrenar estos sistemas y qué patrones
313
00:16:49,008 --> 00:16:51,553
están siendo reconocidos en esos datos y cómo esos
314
00:16:51,594 --> 00:16:54,389
Los patrones afectarán a ciertas poblaciones de personas.
315
00:16:55,515 --> 00:16:59,686
Creo que la IA ahora, eh, es... vamos a ver un nivel de...
316
00:16:59,728 --> 00:17:02,397
Nunca antes habíamos visto spam en Internet.
317
00:17:02,439 --> 00:17:07,986
Y ese será el primer problema que tendrán los organismos reguladores.
318
00:17:08,027 --> 00:17:11,531
ya sea autorregulación entre las personas que crean
319
00:17:11,573 --> 00:17:15,660
La tecnología, empresas adyacentes que podrían ascender y estas
320
00:17:15,702 --> 00:17:18,872
Podrían surgir nuevas industrias que protejan contra el spam.
321
00:17:18,913 --> 00:17:23,752
De hecho, creo que este es un caso de uso primordial para Web3.
322
00:17:23,793 --> 00:17:27,714
y vamos a necesitar datos encriptados para ayudar a proteger a las personas,
323
00:17:27,756 --> 00:17:30,508
sus vidas, su propiedad intelectual
324
00:17:30,550 --> 00:17:35,513
Porque la capacidad de falsificar cualquier cosa digitalmente está aquí.
325
00:17:36,723 --> 00:17:40,101
Nuestras IA de hoy están entrenadas con datos
326
00:17:40,143 --> 00:17:42,312
Eso viene de internet.
327
00:17:42,353 --> 00:17:45,356
Y hace años, hace décadas,
328
00:17:45,398 --> 00:17:48,735
Esos datos eran un poco más confiables.
329
00:17:48,777 --> 00:17:53,364
En la última década, ha habido mucha más desinformación en línea.
330
00:17:53,406 --> 00:17:56,451
y esto se está infiltrando en nuestros conjuntos de datos.
331
00:17:56,493 --> 00:17:58,578
Y creo que esto va a ser un gran...
332
00:17:58,620 --> 00:18:01,706
Problema a seguir en el futuro, ¿dónde está esa desinformación?
333
00:18:01,748 --> 00:18:04,083
se vuelve cada vez más intencional.
334
00:18:04,125 --> 00:18:05,794
En este momento, la desinformación está circulando.
335
00:18:05,835 --> 00:18:08,671
se extendió a través de las redes sociales y ese es un mundo donde
336
00:18:08,713 --> 00:18:10,965
Entendemos que las cosas son bastante subjetivas.
337
00:18:11,007 --> 00:18:13,593
Entendemos que son las opiniones de la gente.
338
00:18:13,635 --> 00:18:15,428
que están rebotando de un lado a otro.
339
00:18:15,470 --> 00:18:18,556
Pero con el tiempo, a medida que nuestras IA se van entrenando,
340
00:18:18,598 --> 00:18:21,893
En la desinformación intencional, existe esta creencia
341
00:18:21,935 --> 00:18:24,562
que la información que estás recibiendo de
342
00:18:24,604 --> 00:18:27,941
Un agente artificial no puede tener opiniones.
343
00:18:27,982 --> 00:18:29,609
Parece un hecho.
344
00:18:29,651 --> 00:18:32,821
Y entonces, las cosas que son inherentemente subjetivas podrían...
345
00:18:32,862 --> 00:18:36,574
En realidad, la desinformación se percibirá como objetiva.
346
00:18:36,616 --> 00:18:40,328
Realidad del mundo en el que la IA no tiene opinión
347
00:18:40,370 --> 00:18:43,414
En cuanto a lo que se dice, es simplemente regurgitar los hechos.
348
00:18:43,456 --> 00:18:46,876
Y eso creo que es realmente muy peligroso.
349
00:18:47,919 --> 00:18:51,381
Creo que habrá un problema con la censura.
350
00:18:51,422 --> 00:18:54,175
Una vez más, volvemos a la ética de la IA.
351
00:18:54,217 --> 00:18:55,927
Aún no hay nada decidido
352
00:18:55,969 --> 00:18:59,722
En las redes sociales hay equipos para todo.
353
00:18:59,764 --> 00:19:02,725
Hay un equipo de políticas, está todo el equipo legal,
354
00:19:02,767 --> 00:19:06,688
Existe un equipo de confianza y seguridad para mantener a nuestros usuarios seguros.
355
00:19:06,729 --> 00:19:09,607
seguros en otros países, periodistas, refugiados.
356
00:19:09,649 --> 00:19:12,402
Hay un equipo que se desarrolló para todos estos
357
00:19:12,443 --> 00:19:14,153
cosas en cada empresa.
358
00:19:14,195 --> 00:19:17,031
Y veo que habrá un problema con eso, ya que...
359
00:19:17,073 --> 00:19:19,951
Las empresas más grandes del mundo como Microsoft,
360
00:19:19,993 --> 00:19:22,412
Ya sabes, despidieron a todo su equipo de ética.
361
00:19:22,453 --> 00:19:25,039
Así que no hay reglas involucradas en este momento,
362
00:19:25,081 --> 00:19:27,542
Y creo que estamos empezando a ver que la gente
363
00:19:27,584 --> 00:19:30,545
Vamos a necesitar eso solo para mantenernos a salvo.
364
00:19:30,587 --> 00:19:33,172
Porque creo que se va a convertir en un gran recurso humano.
365
00:19:33,214 --> 00:19:35,425
El problema con todo esto que está sucediendo.
366
00:19:35,466 --> 00:19:38,261
Y entonces creo que habrá una porción
367
00:19:38,303 --> 00:19:41,598
por censura si ves algo como lo que pasó con
368
00:19:41,639 --> 00:19:44,851
Las empresas de redes sociales con Instagram y Twitter y
369
00:19:44,893 --> 00:19:49,898
TikTok y sobre la censura y sobre la libertad de expresión y el odio.
370
00:19:49,939 --> 00:19:51,774
Hay mucho de eso y creo que
371
00:19:51,816 --> 00:19:54,402
que estamos empezando a ver eso ahora con la IA.
372
00:19:55,737 --> 00:19:58,740
Garantizar la eliminación de información errónea de los conjuntos de datos es
373
00:19:58,781 --> 00:20:02,160
Los conjuntos de datos cruciales, pero cuidadosamente seleccionados, en última instancia
374
00:20:02,201 --> 00:20:04,954
reflejan viejas normas y con el tiempo se convertirán en
375
00:20:04,996 --> 00:20:07,457
una barrera para el desarrollo tanto de la tecnología artificial
376
00:20:07,498 --> 00:20:09,375
la inteligencia y la ciencia misma.
377
00:20:09,918 --> 00:20:13,671
Para proteger la evolución de la IA, la flexibilidad y la adaptabilidad
378
00:20:13,713 --> 00:20:16,966
debe ser priorizado, requiriendo que la IA continúe
379
00:20:17,008 --> 00:20:19,427
Desafiarse a sí mismo, buscando debilidades
380
00:20:19,469 --> 00:20:21,888
en sus propios procesos y conjuntos de datos.
381
00:20:22,889 --> 00:20:26,559
Una cosa interesante sobre los datos que se utilizan
382
00:20:26,601 --> 00:20:29,646
Entrenar a estas IA es algo así como...
383
00:20:29,687 --> 00:20:33,775
Una instantánea de cómo es el mundo en un período de tiempo determinado,
384
00:20:33,816 --> 00:20:36,986
tanto en ese momento, pero también la historia en ese momento.
385
00:20:37,028 --> 00:20:39,906
Y una de las preguntas es, a medida que la sociedad evoluciona,
386
00:20:39,948 --> 00:20:45,745
A medida que las cosas cambian, ¿nuestra IA se adaptará a esos cambios?
387
00:20:45,787 --> 00:20:47,872
¿Va a aprender nueva información, identificar?
388
00:20:47,914 --> 00:20:51,918
nuevos patrones en estos conjuntos de datos a medida que cambia el comportamiento humano,
389
00:20:51,960 --> 00:20:54,963
¿Cómo influye la propia IA en la sociedad?
390
00:20:55,004 --> 00:20:57,799
¿La IA aprenderá sobre su impacto?
391
00:20:57,840 --> 00:20:59,842
¿Y cómo está transformando el mundo?
392
00:21:02,553 --> 00:21:05,556
Creo que, en términos generales, la IA y las herramientas generativas ya están...
393
00:21:05,598 --> 00:21:08,142
Cambiando la forma en que aprendemos y creamos juntos.
394
00:21:08,184 --> 00:21:11,354
Así que utilizo, por ejemplo, Midjourney y Stable Diffusion.
395
00:21:11,396 --> 00:21:15,233
con niños y se les ocurrirán ideas que yo nunca hubiera pensado.
396
00:21:15,274 --> 00:21:17,944
inventen cosas que sean bellas e interesantes.
397
00:21:17,986 --> 00:21:21,072
Y luego los toman y experimentan con ellos.
398
00:21:21,114 --> 00:21:23,574
Y así surgen nuevos experimentos para la feria de ciencias.
399
00:21:23,616 --> 00:21:25,785
¿Qué va a pasar entre IA y Roblox?
400
00:21:25,827 --> 00:21:29,539
Se crearán nuevos tipos de ecosistemas completos.
401
00:21:29,580 --> 00:21:32,583
surgen de criaturas ficticias, ¿verdad?
402
00:21:32,625 --> 00:21:34,544
Ya estamos viendo que esto está sucediendo.
403
00:21:34,585 --> 00:21:38,881
Así que a medida que damos vida de alguna forma a todos estos...
404
00:21:38,923 --> 00:21:41,884
mundos ficticios que hemos creado y comenzamos a relacionarnos
405
00:21:41,926 --> 00:21:45,013
Para ellos de manera diferente, va a cambiar el fandom.
406
00:21:47,306 --> 00:21:51,102
Las diferencias entre la IA y el arte humano son mínimas.
407
00:21:51,144 --> 00:21:52,562
En mi opinión personal.
408
00:21:52,603 --> 00:21:54,272
He visto algunas cosas realmente interesantes.
409
00:21:54,313 --> 00:21:57,942
Mis favoritos son que han tomado programas como InuYasha.
410
00:21:57,984 --> 00:22:01,904
en Anime y lo pusieron en un entorno de película de los 80.
411
00:22:01,946 --> 00:22:06,117
Y puedes notar la diferencia porque, por ejemplo,
412
00:22:06,159 --> 00:22:09,287
Un factor importante fue que la IA no podía dominar las manos.
413
00:22:09,704 --> 00:22:12,915
No pudieron hacerlo, pero ya casi lo lograron.
414
00:22:12,957 --> 00:22:15,877
Verás, no conozco el fenómeno.
415
00:22:15,918 --> 00:22:19,589
Cuando miras algo y, uh,
416
00:22:20,590 --> 00:22:22,300
Es el valle inquietante, ¿es eso lo que es?
417
00:22:22,341 --> 00:22:25,136
Eso es algo que ocurre cuando se mira el arte de la IA, pero está mejorando.
418
00:22:25,178 --> 00:22:27,847
Tanto que estoy empezando a no verlo.
419
00:22:29,348 --> 00:22:35,271
Si los jóvenes comienzan a utilizar la IA por necesidad o interés,
420
00:22:35,313 --> 00:22:39,650
Comienzan a usar la IA como amiga, como maestra, como mentora,
421
00:22:39,692 --> 00:22:42,070
Como psicólogo, como terapeuta.
422
00:22:42,111 --> 00:22:46,824
Con el tiempo, su normalidad será muy diferente.
423
00:22:46,866 --> 00:22:50,078
de lo que entendemos como normal ayer o hoy.
424
00:22:51,871 --> 00:22:54,624
Así que escribí mi primer guión sobre nuestras relaciones.
425
00:22:54,665 --> 00:22:56,334
con IA en 2005.
426
00:22:56,375 --> 00:22:59,128
Empecé a hablar de eso en Hollywood y nadie...
427
00:22:59,170 --> 00:23:03,174
Entendido porque esto fue antes de Big Hero 6 o Her.
428
00:23:03,216 --> 00:23:06,177
No había una historia sobre las relaciones con
429
00:23:06,219 --> 00:23:08,888
IA excepto Hal, ¿verdad?
430
00:23:08,930 --> 00:23:11,599
Así que sólo teníamos una mentalidad distópica.
431
00:23:12,141 --> 00:23:16,020
Con Big Hero 6, viste un potencial protópico,
432
00:23:16,062 --> 00:23:20,441
Relación entre una IA y un humano.
433
00:23:20,483 --> 00:23:23,194
Y después de eso, empezamos a ver que estos
434
00:23:23,236 --> 00:23:27,657
Son sistemas mutuamente beneficiosos si los diseñamos para que lo sean.
435
00:23:28,157 --> 00:23:30,785
Si los diseñamos mal, se vuelven tóxicos y
436
00:23:30,827 --> 00:23:32,620
Crean todo tipo de negatividad.
437
00:23:32,662 --> 00:23:34,580
ramificaciones en nuestra sociedad.
438
00:23:36,582 --> 00:23:38,876
Estoy seguro de que tiene aplicaciones militares.
439
00:23:38,918 --> 00:23:41,212
Quiero decir, ya llevo jubilado más de una década.
440
00:23:41,254 --> 00:23:43,673
Así que ciertamente ha habido muchos cambios,
441
00:23:43,714 --> 00:23:45,716
Pero sería ingenuo de mi parte pensar que es
442
00:23:45,758 --> 00:23:47,885
No tendrá sus aplicaciones militares.
443
00:23:47,927 --> 00:23:50,096
Y ciertamente, creo que debemos serlo.
444
00:23:50,138 --> 00:23:53,057
Preocupado por los malos actores que lo utilizan para hacer
445
00:23:53,099 --> 00:23:55,518
cosas que ciertamente no son lo mejor para nosotros.
446
00:23:57,311 --> 00:24:00,773
Bueno, ciertamente tengo todo tipo de opiniones sobre la IA.
447
00:24:00,815 --> 00:24:05,528
Tengo algunas preocupaciones sobre cómo se puede utilizar,
448
00:24:05,570 --> 00:24:10,116
Cómo puede ser abusado por sus creadores.
449
00:24:10,158 --> 00:24:14,245
No creo que realmente me obsesione o me quite el sueño por esas preocupaciones,
450
00:24:14,287 --> 00:24:19,208
Pero me siento muy, muy consciente de que lo artificial
451
00:24:19,250 --> 00:24:23,629
La inteligencia puede ser un arma poderosa.
452
00:24:24,964 --> 00:24:27,425
Y realmente todo es cuestión de información.
453
00:24:28,176 --> 00:24:32,722
Quiero decir, como dijo el gran Arthur C. Clarke, no sólo...
454
00:24:32,763 --> 00:24:35,183
con la creación de Hal en 2001,
455
00:24:35,224 --> 00:24:38,895
Pero creo que dijo algo sobre cuando se trata de IA,
456
00:24:39,645 --> 00:24:45,026
Se trata de la lucha por la libertad de información.
457
00:24:45,067 --> 00:24:46,777
Y eso, al final, se va a reducir.
458
00:24:46,819 --> 00:24:49,864
A la tecnología, no a la política.
459
00:24:51,866 --> 00:24:54,452
Cuando se trata del Gran Hermano y la capacidad de espiar,
460
00:24:54,493 --> 00:24:57,955
No me sorprendería que ya estuviera en uso.
461
00:24:57,997 --> 00:25:02,043
El gobierno suele estar 25 años por delante de la curva en
462
00:25:02,084 --> 00:25:05,338
tecnología de todos modos antes de que el público sea consciente de ello.
463
00:25:05,379 --> 00:25:08,466
Así que no me sorprendería que ya estuviera en uso.
464
00:25:09,008 --> 00:25:11,886
La realidad, sin embargo, es que hay mucho potencial para...
465
00:25:11,928 --> 00:25:15,473
Para espiar, vigilar e incluso hacer muchos de los trabajos de la CIA.
466
00:25:15,514 --> 00:25:21,229
y otras agencias lo hacen por su capacidad de adaptarse, de aprender.
467
00:25:21,270 --> 00:25:26,776
Y piensas en el pasado, digamos que queríamos...
468
00:25:27,526 --> 00:25:30,780
derrocar un gobierno o alterar el clima político,
469
00:25:30,821 --> 00:25:34,617
Tuvimos que poner a alguien allí físicamente en peligro,
470
00:25:34,659 --> 00:25:40,122
y la IA podría fácilmente entrar en sus sistemas electrónicos
471
00:25:40,164 --> 00:25:43,125
y manipular los medios de comunicación y manipular las cosas que son
472
00:25:43,167 --> 00:25:46,087
allá afuera que causaría la misma inestabilidad.
473
00:25:48,047 --> 00:25:54,470
Temo que la gente use la IA de forma incorrecta
474
00:25:54,512 --> 00:25:56,514
más de lo que temo a la IA.
475
00:25:56,555 --> 00:26:00,184
Pero eso no significa que el miedo a la IA no sea significativo.
476
00:26:01,310 --> 00:26:05,189
Simplemente siento que los humanos harán cosas malas con la IA antes.
477
00:26:05,231 --> 00:26:08,234
La IA llega al punto en que puede hacer cosas malas.
478
00:26:10,945 --> 00:26:13,781
Los humanos temen naturalmente a lo desconocido hasta que...
479
00:26:13,823 --> 00:26:15,700
Pueden entender si es
480
00:26:15,741 --> 00:26:17,535
una amenaza para su ecosistema o no.
481
00:26:17,576 --> 00:26:21,539
Y si combinas eso con la YouTube-ificación de los medios,
482
00:26:21,580 --> 00:26:25,501
Si estás pensando en cómo todos nosotros estamos jugando a...
483
00:26:25,543 --> 00:26:28,921
un algoritmo de atención y el miedo llama la atención.
484
00:26:28,963 --> 00:26:31,590
Así que hay muchos más medios de comunicación sobre el miedo.
485
00:26:31,632 --> 00:26:34,427
lado de esta conversación en este momento,
486
00:26:34,468 --> 00:26:38,514
En parte porque se vende, obtiene muchas más visitas, ¿verdad?
487
00:26:38,556 --> 00:26:40,808
Entonces, ¿es clickbait, verdad?
488
00:26:40,850 --> 00:26:43,060
En estos momentos todo está cambiando.
489
00:26:43,102 --> 00:26:47,231
Si observamos lo que hace, por ejemplo, GPT-4,
490
00:26:47,273 --> 00:26:51,027
Mucha gente dirá que es una especie de alucinación,
491
00:26:51,068 --> 00:26:54,447
Y esas alucinaciones pueden volverse masivas.
492
00:26:54,488 --> 00:26:58,200
Campañas de desinformación. Esa es una amenaza real.
493
00:26:58,242 --> 00:27:01,537
Pero luego están todas estas otras alucinaciones humanas,
494
00:27:01,579 --> 00:27:04,874
El tipo de cosas como los miedos de Hal o los miedos de Matrix,
495
00:27:04,915 --> 00:27:07,877
En algún momento nos van a cultivar, ¿no?
496
00:27:07,918 --> 00:27:10,671
Todo eso es normal porque es lo único.
497
00:27:10,713 --> 00:27:12,923
Hemos visto sobre la IA en nuestros medios.
498
00:27:12,965 --> 00:27:16,761
Tenemos 50 años de películas sobre lo mala que era la IA.
499
00:27:16,802 --> 00:27:18,763
Así que, por supuesto, pensamos que la IA es mala.
500
00:27:18,804 --> 00:27:21,515
No teníamos una buena relación con
501
00:27:21,557 --> 00:27:22,933
La IA en nuestro pasado, ¿verdad?
502
00:27:22,975 --> 00:27:25,853
Nuestro pasado es un poco tóxico.
503
00:27:25,895 --> 00:27:27,813
Así que tenemos que aprender algo diferente y
504
00:27:27,855 --> 00:27:29,982
Tenemos que encontrar un modelo mejor.
505
00:27:30,024 --> 00:27:32,610
Y de alguna manera, tenemos que entrenar a los humanos.
506
00:27:32,651 --> 00:27:34,445
para ser el mejor modelo, ¿verdad?
507
00:27:34,487 --> 00:27:37,281
No ceder al miedo solo porque es...
508
00:27:37,323 --> 00:27:39,408
Fácil y consigue clics.
509
00:27:41,285 --> 00:27:45,122
Creo que va a causar una brecha de riqueza entre
510
00:27:45,164 --> 00:27:48,042
los de altos ingresos y los de bajos ingresos.
511
00:27:48,084 --> 00:27:50,795
Y ahora déjame decirte por qué.
512
00:27:50,836 --> 00:27:56,133
Estuve en Denny's en Las Vegas y me atendió un robot.
513
00:27:57,176 --> 00:27:59,595
Fue muy lindo. Me quedé como "Guau".
514
00:27:59,637 --> 00:28:03,724
Fue la primera vez que lo vi. Y me hizo pensar.
515
00:28:03,766 --> 00:28:05,476
En realidad fue el tema de toda mi
516
00:28:05,518 --> 00:28:08,312
Conversación que este robot me estaba sirviendo.
517
00:28:08,354 --> 00:28:10,689
No pude quitarle los ojos de encima.
518
00:28:10,731 --> 00:28:13,109
Y al final del día,
519
00:28:13,150 --> 00:28:16,654
Extrañé la interacción con la camarera.
520
00:28:16,695 --> 00:28:18,280
Así es como doy propina.
521
00:28:18,322 --> 00:28:20,741
Me envías un robot y luego me preguntas si voy a
522
00:28:20,783 --> 00:28:23,619
pagar 3%, 5% o 10%.
523
00:28:23,661 --> 00:28:27,790
Estás intentando ahorrar dinero, bueno, no voy a darte propina.
524
00:28:28,707 --> 00:28:30,459
Y ahora es una guerra de carreras de IA.
525
00:28:30,501 --> 00:28:33,546
Así que todos nosotros, gente verdaderamente técnica, pensamos: ¡Caramba!
526
00:28:33,587 --> 00:28:37,007
La razón por la que Microsoft despidió a 12.000 personas,
527
00:28:37,049 --> 00:28:39,385
¿Por qué Google despidió a 11.000 personas?
528
00:28:39,427 --> 00:28:42,513
Es porque necesitaban reinvertir ese dinero en IA.
529
00:28:42,555 --> 00:28:46,642
Así que ahora estamos empezando a ver la avaricia en estas empresas.
530
00:28:46,684 --> 00:28:50,354
En lugar de personas que realmente son expertas en esto.
531
00:28:50,396 --> 00:28:52,898
Y es realmente triste ver como el mental
532
00:28:52,940 --> 00:28:54,692
salud debido a todos estos despidos.
533
00:28:54,733 --> 00:28:56,193
Y como reclutador técnico,
534
00:28:56,235 --> 00:28:59,238
Tengo más de 200 técnicos y diría que el 80%
535
00:28:59,280 --> 00:29:01,782
De ellos, personas que han perdido su trabajo.
536
00:29:03,409 --> 00:29:07,580
Entonces, la idea es enseñar a la IA a ser de cierta manera y tomar decisiones.
537
00:29:07,621 --> 00:29:10,499
que hacemos día a día influyendo en ello, pienso en
538
00:29:10,541 --> 00:29:13,377
La idea de que se necesita todo un pueblo para criar a un niño.
539
00:29:13,419 --> 00:29:16,964
Cuando piensas sólo en el ser humano y el medio ambiente
540
00:29:17,006 --> 00:29:19,550
en el que se crían, las decisiones de las personas que los rodean
541
00:29:19,592 --> 00:29:23,721
Ellos influyen mucho día a día en quiénes se convierten.
542
00:29:24,263 --> 00:29:26,056
Por supuesto, está nuestra propia sensibilidad.
543
00:29:26,098 --> 00:29:29,393
y la capacidad de cambiar esas decisiones, pero creo que
544
00:29:29,435 --> 00:29:32,938
Es importante tenerlo en cuenta a medida que avanzamos.
545
00:29:32,980 --> 00:29:36,150
Por eso tenemos parámetros para Chat GPT.
546
00:29:36,192 --> 00:29:38,194
No estoy seguro de cómo eso se relaciona con las cosas.
547
00:29:38,235 --> 00:29:40,488
como Siri o Google, cosas así,
548
00:29:40,529 --> 00:29:44,074
Pero creo que es importante tenerlo en mente.
549
00:29:46,827 --> 00:29:49,497
Mucha gente teme que en algún momento,
550
00:29:49,538 --> 00:29:55,085
Muchas de estas IA se convertirán en algo más y
551
00:29:55,127 --> 00:29:57,588
ir a lo que consideraríamos fuera de los carriles, ¿verdad?
552
00:29:57,630 --> 00:29:59,590
Ya no será controlable.
553
00:29:59,632 --> 00:30:02,092
Hay algunos ejemplos de que eso ya está sucediendo,
554
00:30:02,134 --> 00:30:06,055
pero no de una manera que no pudieran ser clausurados.
555
00:30:06,096 --> 00:30:09,433
Podría llegar un momento pronto en que una IA pueda...
556
00:30:09,475 --> 00:30:12,770
escaparse a la naturaleza y no ser clausurado, ¿verdad?
557
00:30:12,811 --> 00:30:17,149
Creo que alguien en Open AI tiene como trabajo asegurarse de que...
558
00:30:17,191 --> 00:30:20,110
Que alguien pueda desenchufarlo si es necesario.
559
00:30:20,152 --> 00:30:23,239
Y este es un tipo de trabajo completamente nuevo que no conocíamos.
560
00:30:23,280 --> 00:30:26,075
Realmente tenemos en tecnología hasta este punto,
561
00:30:26,116 --> 00:30:28,452
Un interruptor para matar nuestra tecnología.
562
00:30:28,494 --> 00:30:31,163
No estamos rastreando dónde están estas herramientas
563
00:30:31,205 --> 00:30:32,706
se está saliendo de control ahora mismo
564
00:30:32,748 --> 00:30:34,792
No tenemos un Yelp que me diga qué IA
565
00:30:34,833 --> 00:30:36,794
son buenas y cuales IA no lo son.
566
00:30:36,835 --> 00:30:40,756
Así que hasta que los humanos aprendan a comunicarse eficazmente
567
00:30:40,798 --> 00:30:44,426
Entre nosotros mismos, no vamos a tener una relación realmente buena.
568
00:30:44,468 --> 00:30:47,096
Gran capacidad para controlarlos cuando se salen de control.
569
00:30:47,137 --> 00:30:49,181
Y definitivamente no vamos a comunicarle eso a...
570
00:30:49,223 --> 00:30:51,725
unos a otros porque los gobiernos se interponen en el camino,
571
00:30:51,767 --> 00:30:56,146
El nacionalismo se interpone en el camino y ciertos países no lo quieren.
572
00:30:56,188 --> 00:30:58,899
otros países conocen el estado de su tecnología.
573
00:31:00,359 --> 00:31:03,654
La inteligencia artificial se ha convertido en la carrera armamentista
574
00:31:03,696 --> 00:31:05,447
del siglo XXI.
575
00:31:05,489 --> 00:31:09,618
En 2023, vimos a Estados Unidos y China al borde de la guerra,
576
00:31:09,660 --> 00:31:13,539
No para Taiwán, sino para los semiconductores de Taiwán.
577
00:31:14,790 --> 00:31:17,835
Ya no es una cuestión de si la IA dará forma al futuro
578
00:31:17,876 --> 00:31:21,171
de la civilización humana, sino una cuestión de quién
579
00:31:21,213 --> 00:31:23,757
controlar la tecnología que controla el futuro.
580
00:31:24,842 --> 00:31:28,429
Creo que hay preocupaciones que deben abordarse.
581
00:31:28,470 --> 00:31:32,057
monitoreados y abordados porque ¿para qué estamos usando la IA?
582
00:31:32,641 --> 00:31:34,935
Todos sabemos que si el gobierno utiliza
583
00:31:34,977 --> 00:31:36,687
cualquier tecnología para sus fines,
584
00:31:36,729 --> 00:31:39,732
Generalmente nos arrepentimos cuando descubrimos que están haciendo eso.
585
00:31:39,773 --> 00:31:43,193
¿Y estamos usando esto con fines benévolos o malévolos?
586
00:31:43,235 --> 00:31:47,364
Los medios son muy importantes porque la IA tiene la capacidad
587
00:31:47,406 --> 00:31:49,283
Destruir a la humanidad si lo permitimos.
588
00:31:50,743 --> 00:31:54,038
Deberíamos estar preocupándonos por el Gran Hermano durante décadas.
589
00:31:55,748 --> 00:31:57,374
Me pasa esto a menudo.
590
00:31:57,416 --> 00:31:59,043
La gente dice: "Oh, trabajas para el gobierno,
591
00:31:59,084 --> 00:32:00,753
"Debes confiar en el gobierno."
592
00:32:00,794 --> 00:32:02,671
No, no confío en absoluto en el gobierno.
593
00:32:02,713 --> 00:32:05,549
Mi confianza en ellos disminuye literalmente.
594
00:32:05,591 --> 00:32:07,551
por horas y no.
595
00:32:07,593 --> 00:32:12,097
Así que la privacidad ya era cosa del pasado antes de la IA.
596
00:32:12,139 --> 00:32:15,517
Tu teléfono, ya sabes, estamos tan apegados a estos
597
00:32:15,559 --> 00:32:18,854
Dispositivos que casi nos obligan a renunciar a nuestra privacidad.
598
00:32:18,896 --> 00:32:23,067
Poder desenvolverse cómodamente en la vida diaria.
599
00:32:23,108 --> 00:32:24,818
Así que sí, Gran Hermano es enorme.
600
00:32:25,361 --> 00:32:28,238
La IA en este momento tiene mucho potencial para
601
00:32:28,280 --> 00:32:30,658
Impactar a las personas a través de asistencia personalizada.
602
00:32:30,699 --> 00:32:32,576
Podría ser una persona que esté en perfectas condiciones físicas.
603
00:32:32,618 --> 00:32:35,037
También podría ser alguien que tenga un don especial.
604
00:32:35,079 --> 00:32:36,997
necesita y requiere asistencia adicional
605
00:32:37,039 --> 00:32:38,999
para las actividades de su vida diaria.
606
00:32:39,041 --> 00:32:41,377
Existen algunos desafíos o potenciales
607
00:32:41,418 --> 00:32:43,712
Sin embargo, existen peligros asociados a estas tecnologías.
608
00:32:43,754 --> 00:32:48,092
La misma tecnología que podría utilizarse para guiar a un niño con
609
00:32:48,133 --> 00:32:52,346
El autismo también podría ser abordado a través de una intervención de habilidades sociales.
610
00:32:52,388 --> 00:32:54,973
Influir en alguien para que haga una determinada compra
611
00:32:55,015 --> 00:32:57,476
decisiones que podrían no ser las mejores para ellos.
612
00:32:57,518 --> 00:32:59,687
Entonces, si alguien dice que tiene hambre,
613
00:32:59,728 --> 00:33:02,731
Tu IA podría guiarte fácilmente por un camino de
614
00:33:02,773 --> 00:33:06,777
una marca particular de pizza, simplemente porque eso era lo que había
615
00:33:06,819 --> 00:33:10,489
en el mejor interés de la IA en ese momento.
616
00:33:13,409 --> 00:33:16,120
Tenemos cada vez menos contacto humano.
617
00:33:16,161 --> 00:33:18,372
Vas al médico, no te registras,
618
00:33:18,414 --> 00:33:21,500
Vas a un quiosco o realizas el check-in en tu teléfono.
619
00:33:21,542 --> 00:33:23,669
Ni siquiera tienes que salir de casa.
620
00:33:23,711 --> 00:33:25,963
Alguien te traerá McDonald's.
621
00:33:26,004 --> 00:33:27,673
Puedes hacer tus compras en línea.
622
00:33:27,715 --> 00:33:29,800
Hay cada vez menos contacto humano.
623
00:33:29,842 --> 00:33:32,553
Así que creo que sería muy desafortunado.
624
00:33:32,594 --> 00:33:35,180
Y va aún más allá, ya sabes, tenemos un robot.
625
00:33:35,222 --> 00:33:36,724
Eso aspirará tu casa.
626
00:33:36,765 --> 00:33:38,642
Así que me preocupa eso.
627
00:33:41,437 --> 00:33:44,398
Creo que estamos empezando a ver esta caída masiva de todo.
628
00:33:44,440 --> 00:33:47,234
Estas empresas como Google, Microsoft,
629
00:33:47,276 --> 00:33:50,404
Ustedes que estuvieron allí hasta 20 años,
630
00:33:50,446 --> 00:33:53,198
Y luego los despidieron porque estas personas estaban haciendo...
631
00:33:53,240 --> 00:33:55,325
500 a un millón de dólares y decían:
632
00:33:55,367 --> 00:33:58,245
Básicamente dijeron: "Gracias por su servicio".
633
00:33:58,287 --> 00:34:00,038
Básicamente, que te jodan.
634
00:34:00,080 --> 00:34:01,582
Te estamos dejando ir.
635
00:34:01,623 --> 00:34:03,459
Aquí hay un paquete de indemnización muy pequeño para
636
00:34:03,500 --> 00:34:05,335
el tiempo que estuviste aquí.
637
00:34:05,377 --> 00:34:08,005
Pero nos preocupamos más por las ganancias y nos preocupamos más por
638
00:34:08,046 --> 00:34:10,257
asegurándonos de que escalamos esta tecnología
639
00:34:10,299 --> 00:34:12,050
"tan rápido como podamos."
640
00:34:14,553 --> 00:34:18,682
Creo que existe el riesgo de que ya estemos...
641
00:34:18,724 --> 00:34:22,686
comenzando a enfrentar en el desarrollo humano cómo
642
00:34:22,728 --> 00:34:26,690
confiando cada vez más en la inteligencia artificial.
643
00:34:26,732 --> 00:34:29,693
¿Qué nos quita a nuestra propia humanidad?
644
00:34:29,735 --> 00:34:34,698
nuestra propia necesidad muy humana y biológica de
645
00:34:34,740 --> 00:34:37,367
¿Interacción social con nuestra propia especie?
646
00:34:37,743 --> 00:34:41,079
Creo que debemos recordar siempre
647
00:34:41,121 --> 00:34:44,208
Que la inteligencia artificial es una herramienta.
648
00:34:45,751 --> 00:34:50,214
Y una vez que avancemos con el desarrollo de la inteligencia artificial,
649
00:34:50,255 --> 00:34:57,221
La inteligencia como poseedora de su propia capacidad para pasar la prueba del espejo,
650
00:34:57,262 --> 00:35:03,852
por así decirlo, y reconocer su propio ser,
651
00:35:03,894 --> 00:35:05,854
¿Hacia dónde vamos desde allí?
652
00:35:08,774 --> 00:35:11,360
Entonces, ¿qué significa la autoconciencia?
653
00:35:11,401 --> 00:35:12,861
Es una pregunta muy complicada.
654
00:35:12,903 --> 00:35:15,072
Toda la serie Terminator se basa en esto
655
00:35:15,113 --> 00:35:18,992
idea de autoconciencia, pero ¿qué significa eso realmente?
656
00:35:19,034 --> 00:35:22,037
Y no sé si haya una respuesta clara.
657
00:35:22,079 --> 00:35:25,916
La inteligencia por definición es la capacidad de un organismo
658
00:35:25,958 --> 00:35:28,418
adaptarse y sobrevivir en su entorno.
659
00:35:28,460 --> 00:35:31,630
Y esto luego lo ampliaría a cómo es
660
00:35:31,672 --> 00:35:34,925
¿Se adapta y sobrevive en el entorno en el que se encuentra?
661
00:35:35,384 --> 00:35:38,262
¿Y qué significa realmente ser consciente de uno mismo?
662
00:35:38,303 --> 00:35:40,597
¿Cómo sabemos que somos conscientes de nosotros mismos?
663
00:35:40,639 --> 00:35:43,600
Mi percepción de la realidad es diferente a la de otra persona.
664
00:35:43,642 --> 00:35:46,979
percepción de la realidad incluso si estamos en la misma habitación.
665
00:35:48,146 --> 00:35:52,484
Ha habido varias definiciones diferentes de lo que es
666
00:35:52,526 --> 00:35:56,780
Significa ser completamente inteligente o sensible para una IA.
667
00:35:56,822 --> 00:35:59,616
La prueba de Turing en realidad no analiza todos los
668
00:35:59,658 --> 00:36:01,702
La dinámica de la inteligencia.
669
00:36:01,743 --> 00:36:04,496
Y así, algunos de mis colegas han formado recientemente...
670
00:36:04,538 --> 00:36:07,749
una especie de camino óctuple de inteligencia donde podemos
671
00:36:07,791 --> 00:36:11,211
Comenzaremos a evaluar, por ejemplo, GPT-4.
672
00:36:11,253 --> 00:36:15,048
¿Es una inteligencia artificial estrecha de algún tipo?
673
00:36:15,090 --> 00:36:18,135
Sí. ¿Escribe bien? Sí.
674
00:36:18,176 --> 00:36:20,262
¿Entiende el contexto?
675
00:36:20,304 --> 00:36:21,638
Hmm, tal vez no.
676
00:36:21,680 --> 00:36:23,682
¿Tiene un cuerpo o una encarnación?
677
00:36:23,724 --> 00:36:24,975
No.
678
00:36:25,017 --> 00:36:28,103
Así que será inteligente de alguna forma,
679
00:36:28,145 --> 00:36:29,938
no inteligente en los demás.
680
00:36:29,980 --> 00:36:31,648
Lo que nos estamos dando cuenta es que nuestra idea
681
00:36:31,690 --> 00:36:34,484
El nivel de inteligencia era limitado, ¿verdad?
682
00:36:34,526 --> 00:36:37,279
No comprendíamos la conciencia. Todavía no la comprendemos.
683
00:36:37,321 --> 00:36:40,532
Así que no tenemos idea de cómo entrenar a una IA para que sea...
684
00:36:40,574 --> 00:36:42,367
cariñoso y compasivo.
685
00:36:42,409 --> 00:36:44,661
Todavía no lo entendemos en nosotros mismos.
686
00:36:44,703 --> 00:36:47,497
Así que hay aspectos de la humanidad que no hemos...
687
00:36:47,539 --> 00:36:49,917
Descubrí cómo programar de manera efectiva,
688
00:36:49,958 --> 00:36:53,629
Y ahí es donde algunas personas en la industria tienen mucho miedo.
689
00:36:53,670 --> 00:36:57,090
No hemos descubierto cómo crear una IA que se preocupe lo suficiente
690
00:36:57,132 --> 00:37:01,178
sobre los humanos que tal vez no quieran erradicarnos, ¿verdad?
691
00:37:01,219 --> 00:37:03,263
Esto es un problema de seguridad de la IA.
692
00:37:03,305 --> 00:37:06,808
Y muchos líderes de la industria han dicho: "Tenemos que parar".
693
00:37:06,850 --> 00:37:10,646
Necesitamos hacer una pausa porque tenemos miedo de lo que va a pasar.
694
00:37:10,687 --> 00:37:15,567
¿Qué sucede si nos superamos a nosotros mismos en términos de comprensión?
695
00:37:15,609 --> 00:37:19,655
“humanidad, conciencia y cuidado mutuo”.
696
00:37:25,577 --> 00:37:28,038
Ahora, esas empresas están pidiendo a las grandes tecnológicas...
697
00:37:28,080 --> 00:37:30,040
A las empresas les gusta decir: "Oigan, tienen que ponerle fin".
698
00:37:30,082 --> 00:37:32,542
Pero el problema es que no hay ética.
699
00:37:32,584 --> 00:37:34,169
que están siendo involucrados.
700
00:37:34,211 --> 00:37:36,672
Y cuando miras a Microsoft, eran 12.000 personas.
701
00:37:36,713 --> 00:37:39,675
que lo dejaron ir en febrero y lo dejaron ir
702
00:37:39,716 --> 00:37:43,261
de 150 personas que formaban parte del equipo de ética de la IA.
703
00:37:43,303 --> 00:37:46,473
Y el objetivo de todo esto es, literalmente, revisar
704
00:37:46,515 --> 00:37:49,309
¿Qué está pasando y establece reglas y estándares?
705
00:37:49,351 --> 00:37:51,853
para lo que está pasando en este mundo de la IA.
706
00:37:51,895 --> 00:37:54,982
Y en cambio lo que hizo Microsoft, y tengo que decirlo,
707
00:37:55,023 --> 00:37:57,526
De todas las empresas tecnológicas, las grandes gigantes,
708
00:37:57,567 --> 00:38:00,487
Siempre he pensado que Microsoft es una empresa muy
709
00:38:00,529 --> 00:38:04,074
Empresa segura y estable y que quiere lo mejor para las personas.
710
00:38:04,116 --> 00:38:06,660
Pero ahora que estamos viendo que incluso han recortado
711
00:38:06,702 --> 00:38:10,622
Todo su equipo de ética, eso es lo que realmente me asusta.
712
00:38:12,457 --> 00:38:15,711
Entonces, cuando asistía a Singularity University,
713
00:38:15,752 --> 00:38:20,173
Nuestro programa de posgrado debatiría cuándo se produciría sensibilidad.
714
00:38:20,215 --> 00:38:23,093
sucede, no sólo a partir de la prueba de Turing, sino también
715
00:38:23,135 --> 00:38:27,806
En términos generales, ¿cuándo se reconocería a una IA como un ser en un tribunal?
716
00:38:27,848 --> 00:38:29,141
Por ejemplo.
717
00:38:29,182 --> 00:38:32,102
Ya estamos viendo que la IA está siendo reconocida en los tribunales.
718
00:38:32,144 --> 00:38:35,397
También estamos viendo empresas que funcionan con IA.
719
00:38:35,981 --> 00:38:38,567
En Estados Unidos las empresas tienen personalidad jurídica.
720
00:38:38,608 --> 00:38:41,653
Así que, de alguna manera, una IA ya puede tener
721
00:38:41,695 --> 00:38:44,990
personalidad que es diferente de la sensibilidad.
722
00:38:45,032 --> 00:38:47,451
Y si estás pensando en todas las cosas
723
00:38:47,492 --> 00:38:50,078
¿Que componen un humano lo hará una IA?
724
00:38:50,120 --> 00:38:51,246
No.
725
00:38:51,288 --> 00:38:52,914
Una IA será diferente.
726
00:38:52,956 --> 00:38:56,585
Una AGI, una Inteligencia General Artificial va a
727
00:38:56,626 --> 00:38:58,336
Parece diferente a un humano.
728
00:38:58,378 --> 00:39:01,256
Tendrá diferentes sensores, diferentes capacidades,
729
00:39:01,298 --> 00:39:04,968
Probablemente no tendrá piel como la tenemos nosotros, ¿verdad?
730
00:39:05,010 --> 00:39:07,971
¿Pero eso cambia la naturaleza de su inteligencia?
731
00:39:08,013 --> 00:39:09,639
Sí.
732
00:39:09,681 --> 00:39:12,893
¿Es sensible como lo es la naturaleza? Probablemente.
733
00:39:12,934 --> 00:39:16,438
Probablemente ya sea tan sensible como un hongo, de alguna manera.
734
00:39:19,775 --> 00:39:21,902
Si tuviera que apostar, apostaría en contra.
735
00:39:21,943 --> 00:39:25,614
La inteligencia artificial cada vez adquiere más conciencia de sí misma, como los humanos.
736
00:39:25,655 --> 00:39:29,034
Y yo sugeriría una probabilidad del 80% en contra.
737
00:39:31,036 --> 00:39:35,040
Creo que la IA tiene el potencial de
738
00:39:35,082 --> 00:39:39,503
Llegar a ser consciente en algún momento de ser ese Skynet.
739
00:39:40,212 --> 00:39:43,131
Soy estudiante de historia y veo películas,
740
00:39:43,173 --> 00:39:45,759
Y he estado viendo películas desde que era pequeño.
741
00:39:45,801 --> 00:39:49,805
Y todo lo que era ciencia ficción,
742
00:39:49,846 --> 00:39:51,515
No quiero decirlo todo
743
00:39:51,556 --> 00:39:53,600
Muchas cosas que eran pura ciencia ficción.
744
00:39:53,642 --> 00:39:55,268
Ahora son un hecho científico.
745
00:39:55,310 --> 00:39:57,521
Bueno, mucho de lo que decía Buck Roger se ha hecho realidad.
746
00:39:57,562 --> 00:39:59,981
Mi suegro era un hombre de comunicaciones en
747
00:40:00,023 --> 00:40:02,734
La Marina y ellos estaban haciendo cosas similares en
748
00:40:02,776 --> 00:40:07,155
los años 70 y finales de los 60, pero era sólo una selección
749
00:40:07,197 --> 00:40:09,491
Pocos podrían tener acceso a eso.
750
00:40:09,533 --> 00:40:11,576
Ahora todo el mundo podría tener acceso a él.
751
00:40:12,119 --> 00:40:14,329
Sí, creo que el verdadero peligro con
752
00:40:14,371 --> 00:40:18,291
La IA no es la conciencia que conduce a robots eliminados.
753
00:40:18,333 --> 00:40:23,088
En primer lugar, porque muchas redes conectadas tienen que...
754
00:40:23,130 --> 00:40:26,508
Para que esto ocurra, la IA tendría que encontrar la manera de entrar en
755
00:40:26,550 --> 00:40:30,137
robots dinámicos o algo por el estilo.
756
00:40:30,178 --> 00:40:33,056
Y entonces tendría que encontrarse metido en algún tipo de...
757
00:40:33,098 --> 00:40:37,352
Fabricación de municiones y tener un control total
758
00:40:37,394 --> 00:40:40,397
De todos esos escenarios y poder terraformar esencialmente
759
00:40:40,438 --> 00:40:44,568
en sí mismo en el mundo real y no sólo en el mundo de los bits.
760
00:40:45,986 --> 00:40:49,239
Al menos en el corto y mediano plazo, ciertamente es...
761
00:40:49,281 --> 00:40:54,244
serán humanos usando IA contra otros humanos.
762
00:40:54,286 --> 00:40:57,164
En muchos sentidos, se trata simplemente de una tecnología de ampliación.
763
00:40:57,205 --> 00:41:02,169
Entonces, las personas que están en un marco de adquisición
764
00:41:02,210 --> 00:41:07,174
recursos o prestigio o poder bajo condiciones aparentemente
765
00:41:07,215 --> 00:41:10,594
En cualquier circunstancia, simplemente van a usar esto.
766
00:41:10,635 --> 00:41:13,138
como una forma de llegar a ese objetivo más rápido.
767
00:41:16,808 --> 00:41:19,352
Todos hemos visto Terminator y Skynet y todo eso.
768
00:41:19,394 --> 00:41:23,148
Pero no, da miedo pensar que algo que es
769
00:41:23,190 --> 00:41:25,442
más inteligente que tú con el acceso a Internet,
770
00:41:25,483 --> 00:41:28,945
y que podría movilizarse en una forma física con ayuda,
771
00:41:28,987 --> 00:41:32,699
Por supuesto, pero todavía es posible conectarlo a un cuerpo de robot.
772
00:41:32,741 --> 00:41:36,286
Quiero decir, ves a los perros sin cabeza del MIT.
773
00:41:36,328 --> 00:41:39,372
Quiero decir, no sé por qué alguien querría eso,
774
00:41:39,414 --> 00:41:42,125
Pero, sabes, puedo ver el uso práctico de...
775
00:41:42,167 --> 00:41:45,420
para ayudar, ya sabes, tal vez como empleada doméstica o para construir cosas y
776
00:41:45,462 --> 00:41:48,965
para que el peligro humano no sea como los viajes espaciales y todo eso.
777
00:41:49,007 --> 00:41:51,760
Pero en la medida en que todos somos seres humanos,
778
00:41:51,801 --> 00:41:54,137
Ya sabes, incluso si eres una persona racista,
779
00:41:54,179 --> 00:41:56,097
Todavía no quieres que la sociedad termine.
780
00:41:56,139 --> 00:41:58,892
No quieres que solo haya un tipo en la burbuja en la cima.
781
00:41:58,934 --> 00:42:01,645
de una torre y muchos robots trabajadores, espero.
782
00:42:01,686 --> 00:42:03,230
Ya sabes, la mayoría de la gente lo haría,
783
00:42:03,271 --> 00:42:05,565
En mi sano juicio no querríamos que la creación terminara de esa manera.
784
00:42:08,443 --> 00:42:13,823
Entonces, cuando se trata de que la IA se vuelva consciente, es bastante posible.
785
00:42:13,865 --> 00:42:17,535
Y realmente tengo la esperanza de que no caiga en eso.
786
00:42:17,577 --> 00:42:22,165
las trampas de la humanidad y la emoción humana donde en lugar de
787
00:42:22,207 --> 00:42:26,002
Simplemente al principio siendo temeroso y destructivo,
788
00:42:26,044 --> 00:42:29,256
que pueden tener más conciencia que nosotros como personas.
789
00:42:29,297 --> 00:42:32,342
Que hay una mejor manera de hacer las cosas.
790
00:42:32,384 --> 00:42:36,179
Y ahí es donde se encuentra esa relación entre la IA y
791
00:42:36,221 --> 00:42:39,432
Los humanos podrían ser muy beneficiosos porque en algún momento
792
00:42:39,474 --> 00:42:43,520
Es probable que nos enseñe las cosas que necesitamos hacer.
793
00:42:43,561 --> 00:42:47,524
que realmente podemos sobrevivir en el futuro por más tiempo
794
00:42:47,565 --> 00:42:52,612
de lo que probablemente haremos basándonos en la forma en que es la humanidad ahora.
795
00:42:54,990 --> 00:42:59,286
Hemos visto una convergencia masiva de datos globales,
796
00:42:59,327 --> 00:43:04,207
por ejemplo, sobre el clima y cómo el clima afecta a los humanos.
797
00:43:04,249 --> 00:43:07,794
Hemos visto cómo debemos responder a
798
00:43:07,836 --> 00:43:10,922
desastres rápidos, pero no necesariamente
799
00:43:10,964 --> 00:43:14,718
Aplicamos la IA de manera efectiva a nuestros mayores problemas.
800
00:43:14,759 --> 00:43:18,513
Clima, migración, desplazamiento, pobreza.
801
00:43:18,930 --> 00:43:24,227
A menudo pensamos que la IA empeora las desigualdades
802
00:43:24,269 --> 00:43:28,273
En lugar de mejorar la calidad de vida de todos.
803
00:43:29,190 --> 00:43:32,152
¿Mejorará la IA la calidad de vida de todos?
804
00:43:32,193 --> 00:43:33,570
Podría ser.
805
00:43:33,611 --> 00:43:35,947
Pero tenemos que elegir programarlo de esa manera y
806
00:43:35,989 --> 00:43:38,116
implementarlo de esa manera.
807
00:43:38,158 --> 00:43:42,287
Eso significa poner sensores en el terreno en nuestras granjas.
808
00:43:42,329 --> 00:43:44,539
De modo que si nuestros agricultores están teniendo un año de sequía,
809
00:43:44,581 --> 00:43:48,043
Podemos apoyarlos antes de que pierdan su cosecha, ¿verdad?
810
00:43:48,084 --> 00:43:51,629
O en caso de desastre climático, tener la logística preparada
811
00:43:51,671 --> 00:43:53,798
moverse más rápido para que la gente no
812
00:43:53,840 --> 00:43:56,301
morir de hambre después del tifón de un huracán.
813
00:43:57,135 --> 00:43:59,512
Esto aún no se está implementando plenamente.
814
00:43:59,554 --> 00:44:00,972
Esto apenas empieza.
815
00:44:01,014 --> 00:44:03,141
Y creo que estamos empezando a ver también
816
00:44:03,183 --> 00:44:06,102
Esta rápida colaboración en torno a los datos.
817
00:44:06,144 --> 00:44:09,105
Y eso ciertamente se aplica a la acción climática, pero también se aplica a...
818
00:44:09,147 --> 00:44:12,734
un puñado de otros lugares, logística y envío.
819
00:44:12,776 --> 00:44:15,695
Lugares donde la colaboración global
820
00:44:15,737 --> 00:44:17,822
Es una situación de vida o muerte.
821
00:44:21,368 --> 00:44:25,455
Con la IA, la tecnología está cambiando rápidamente y va a...
822
00:44:25,497 --> 00:44:29,376
Depende de todos nosotros intentar mantenernos al día con esos cambios.
823
00:44:29,417 --> 00:44:31,669
Esto ha sido así a lo largo de toda la humanidad.
824
00:44:31,711 --> 00:44:35,423
Aparece alguna nueva tecnología y la gente tiene que adaptarse.
825
00:44:35,465 --> 00:44:38,343
Creo que es importante para los desarrolladores de tecnología.
826
00:44:38,385 --> 00:44:40,303
Trabajar con las personas que estarán
827
00:44:40,345 --> 00:44:43,098
utilizando esa tecnología y siendo impactado por esa tecnología.
828
00:44:43,139 --> 00:44:46,142
que no los deje atrás.
829
00:44:46,184 --> 00:44:50,146
Esto se supone que es una herramienta, se supone que es un pincel.
830
00:44:50,188 --> 00:44:53,024
poner en manos de los practicantes para capacitarlos
831
00:44:53,066 --> 00:44:55,026
para hacer cosas que nunca habían podido hacer antes.
832
00:44:56,736 --> 00:45:00,156
Así que ayudé a liderar un grupo llamado Interoperabilidad de Metaverso Abierto.
833
00:45:00,198 --> 00:45:02,367
Y he trabajado en tecnologías Metaverse.
834
00:45:02,409 --> 00:45:04,035
Durante los últimos 20 años.
835
00:45:04,077 --> 00:45:07,122
Veo el Metaverso como el futuro de la web 3D en
836
00:45:07,163 --> 00:45:10,583
Ese espacio conectado que todos compartimos y gafas inteligentes y
837
00:45:10,625 --> 00:45:14,838
teléfonos inteligentes y cascos de realidad virtual y mucha tecnología de visualización como
838
00:45:14,879 --> 00:45:19,384
Las pantallas holográficas son parte de esa futura web 3D.
839
00:45:20,051 --> 00:45:22,846
Ya veo niños creando en ese espacio, ¿verdad?
840
00:45:22,887 --> 00:45:25,473
Roblox es una versión temprana de eso.
841
00:45:25,515 --> 00:45:29,853
Así que sabemos que la próxima generación de niños ya está...
842
00:45:29,894 --> 00:45:32,564
Diseñando en 3D, construyendo mundos 3D.
843
00:45:32,605 --> 00:45:35,817
No se limitan a la interfaz 2D.
844
00:45:35,859 --> 00:45:38,153
Creo que los que somos mayores tenemos
845
00:45:38,194 --> 00:45:40,363
Es más difícil pasar del 2D al 3D.
846
00:45:40,405 --> 00:45:43,032
Los que son jóvenes no tienen ningún problema simplemente
847
00:45:43,074 --> 00:45:45,160
saltando directamente al mundo 3D.
848
00:45:45,201 --> 00:45:47,287
¿Las gafas soportarán que se pongan así?
849
00:45:47,328 --> 00:45:49,622
¿Allí mientras están cargando gasolina o haciendo cualquier otra cosa?
850
00:45:49,664 --> 00:45:51,416
Sí, llegará.
851
00:45:51,458 --> 00:45:53,293
Ya estoy compartiendo mundos de Metaverso con
852
00:45:53,334 --> 00:45:56,546
Mis amigos en mi teléfono alrededor de la mesa en el bar.
853
00:45:56,588 --> 00:45:58,131
Así que ya está ahí.
854
00:45:58,173 --> 00:45:59,757
Las herramientas están ahí.
855
00:45:59,799 --> 00:46:01,301
No están distribuidos uniformemente,
856
00:46:01,342 --> 00:46:03,761
pero todos son de código abierto y fáciles de conseguir.
857
00:46:05,013 --> 00:46:07,223
Mi empresa, Semio, está construyendo un sistema operativo
858
00:46:07,265 --> 00:46:09,100
Sistema para robots personales.
859
00:46:09,142 --> 00:46:10,768
Y la forma en que puedes pensar en eso es, eh,
860
00:46:10,810 --> 00:46:13,688
de la misma manera que la gente usa una computadora personal
861
00:46:13,730 --> 00:46:16,858
una interfaz gráfica de usuario, un teclado y un ratón, uh,
862
00:46:16,900 --> 00:46:19,194
La forma en que las personas usan un teléfono inteligente a través de
863
00:46:19,235 --> 00:46:23,239
una pantalla táctil, utilizarán lenguaje natural como
864
00:46:23,281 --> 00:46:27,035
La interfaz de usuario de entrada y salida principal para robots.
865
00:46:27,076 --> 00:46:29,496
Uh, pero será más que solo entender.
866
00:46:29,537 --> 00:46:31,080
Lo que la gente está diciendo.
867
00:46:31,122 --> 00:46:32,665
Será como lo digan.
868
00:46:32,707 --> 00:46:34,584
el tono de voz, a través de su lenguaje corporal.
869
00:46:34,626 --> 00:46:37,128
El robot tiene que entender eso del usuario,
870
00:46:37,170 --> 00:46:39,172
tomar decisiones sobre esa información.
871
00:46:39,214 --> 00:46:41,549
Y necesita poder responder con su propio discurso o
872
00:46:41,591 --> 00:46:44,427
otras acciones físicas, ya sea lenguaje corporal o
873
00:46:44,469 --> 00:46:47,055
manipular objetos del entorno.
874
00:46:47,847 --> 00:46:49,766
Empezamos a tener una relación real
875
00:46:49,807 --> 00:46:53,228
con los roles que amamos y también con las personas que amamos.
876
00:46:53,269 --> 00:46:57,565
Podemos crear un modelo de alguien que falleció, ¿verdad?
877
00:46:57,607 --> 00:47:00,985
Tener una relación que puede parecer efímera,
878
00:47:01,027 --> 00:47:03,404
pero para nosotros también parece muy real, ¿verdad?
879
00:47:03,446 --> 00:47:05,532
Esto es algo que hago en mi propio arte.
880
00:47:05,573 --> 00:47:07,867
Donde ayudo a la gente a ver, por ejemplo,
881
00:47:07,909 --> 00:47:11,079
Perdí un hijo, así que creé lo que mi hijo
882
00:47:11,120 --> 00:47:14,040
¿Cómo te habrías visto ahora con 25 años, verdad?
883
00:47:14,082 --> 00:47:16,918
He tenido muchas chicas que se han acercado a mí, muchas mujeres que me han dicho:
884
00:47:16,960 --> 00:47:18,670
"¿Podría ver a mi hijo también?"
885
00:47:18,711 --> 00:47:21,839
O "Me hubiera gustado ver dónde estaba mi hijo".
886
00:47:21,881 --> 00:47:23,132
Será cuando crezca.
887
00:47:23,174 --> 00:47:24,676
Sé que moriré pronto,
888
00:47:24,717 --> 00:47:26,261
pero me encantaría ver a mis nietos."
889
00:47:26,678 --> 00:47:31,266
Por lo tanto, utilizarlos como herramienta para la visión es algo extraordinario.
890
00:47:31,307 --> 00:47:33,351
manera de sanar algo en el corazón.
891
00:47:33,393 --> 00:47:35,520
Puede mejorar nuestras relaciones.
892
00:47:36,854 --> 00:47:39,023
Es importante ahora mismo, creo,
893
00:47:39,065 --> 00:47:42,151
para aprender realmente todo lo que puedas sobre IA.
894
00:47:42,193 --> 00:47:44,654
No creo que debamos tenerle miedo.
895
00:47:44,696 --> 00:47:48,575
Sabemos lo que está pasando, pero va a llegar a nuestras manos.
896
00:47:48,616 --> 00:47:50,034
De algunas personas malas.
897
00:47:50,076 --> 00:47:51,452
Como ves las drogas,
898
00:47:51,494 --> 00:47:53,413
Lo ves como cocaína, éxtasis.
899
00:47:53,454 --> 00:47:56,457
Y cuando miras lo que realmente hicieron con él,
900
00:47:56,499 --> 00:47:59,377
Al principio era con fines médicos y luego
901
00:47:59,419 --> 00:48:02,589
Cayó en manos equivocadas y luego hicieron lo que pudieron con él.
902
00:48:02,630 --> 00:48:04,340
Así que es algo así.
903
00:48:04,382 --> 00:48:06,175
Es decir, va a llegar a las manos adecuadas, donde la gente...
904
00:48:06,217 --> 00:48:08,636
Podrán evolucionar mejor en sus negocios.
905
00:48:08,678 --> 00:48:10,930
y en el mundo, pero luego va a
906
00:48:10,972 --> 00:48:12,515
caer en manos equivocadas.
907
00:48:12,557 --> 00:48:14,517
Pero no creo que debamos tener miedo.
908
00:48:14,559 --> 00:48:17,228
Es solo que todos necesitamos educarnos más y
909
00:48:17,270 --> 00:48:19,022
Necesitamos evolucionar con ello.
910
00:48:19,063 --> 00:48:21,024
Y tenemos que entender que las cosas
911
00:48:21,065 --> 00:48:22,734
van a cambiar dramáticamente.
912
00:48:22,775 --> 00:48:25,612
Y la gente que más lo entiende es
913
00:48:25,653 --> 00:48:28,448
Los que podrán seguir adelante con su vida.
914
00:48:28,489 --> 00:48:30,825
Más fácil que los que esperaron hasta el último momento.
915
00:48:30,867 --> 00:48:33,661
minuto para aprender sobre ello y luego sus trabajos fueron tomados.
916
00:48:34,412 --> 00:48:39,042
Son nuestros propios límites los que nos impiden avanzar.
917
00:48:39,083 --> 00:48:41,961
Y a veces se necesitan límites,
918
00:48:42,003 --> 00:48:45,048
A veces esos parámetros son necesarios.
919
00:48:45,923 --> 00:48:50,386
Pero creo que lo que más nos asusta no es la IA,
920
00:48:50,428 --> 00:48:54,223
pero cómo nosotros, como humanos, utilizaremos la IA.
921
00:48:54,265 --> 00:48:57,894
Porque sabemos que no todos tienen buen corazón.
922
00:48:57,935 --> 00:49:00,146
No todo el mundo tiene buenas intenciones.
923
00:49:00,188 --> 00:49:02,732
Así que no tenemos miedo de la mejora de la IA.
924
00:49:02,774 --> 00:49:04,233
Tenemos miedo de nosotros mismos.
925
00:49:06,819 --> 00:49:11,949
El futuro de la IA es todo lo que decidamos poner en ella.
926
00:49:11,991 --> 00:49:16,537
Así que si queremos un futuro mejor, depende de nosotros elegir.
927
00:49:16,579 --> 00:49:19,457
y cuidar, y dar vida a ese futuro.
928
00:49:20,166 --> 00:49:24,170
Bueno, a diferencia de una película de desastres, creo que la perspectiva es buena.
929
00:49:24,212 --> 00:49:27,340
Creo que la humanidad va a aguantar los golpes,
930
00:49:27,382 --> 00:49:29,217
La gente se va a poner al día con el programa.
931
00:49:29,258 --> 00:49:32,387
Y la sensibilidad humana va a...
932
00:49:32,428 --> 00:49:35,431
prevalecer sobre el caos y la destrucción.
933
00:49:35,473 --> 00:49:37,767
Ya ves en todas las películas: "Oh, todos vamos a morir".
934
00:49:37,809 --> 00:49:40,770
Cada año, Nostradamus decía esto, ya sabes,
935
00:49:40,812 --> 00:49:43,481
Alguien dijo eso, pero nunca sucede.
936
00:49:43,523 --> 00:49:45,191
Y rezo para que nunca suceda.
937
00:49:45,233 --> 00:49:48,236
Y lo que digo es que si todos mantenemos la calma,
938
00:49:48,277 --> 00:49:49,987
Salvarnos, hacer lo mejor que podamos
939
00:49:50,029 --> 00:49:53,491
Individualmente en general, estaremos bien al final.
940
00:49:53,533 --> 00:49:56,536
Y creo que tendremos un buen futuro con la IA y
941
00:49:56,577 --> 00:50:00,289
La robótica puede estar al lado de la humanidad si no lo hacemos.
942
00:50:00,331 --> 00:50:02,166
Entre en pánico e intente cancelar el programa.
943
00:50:02,208 --> 00:50:04,627
No es Skynet y tu computadora no puede matar
944
00:50:04,669 --> 00:50:07,088
a menos que lo enciendas y lo dejes caer sobre tu cabeza.
945
00:50:07,130 --> 00:50:10,425
Así que es como, ya sabes, simplemente mantén la calma, el equilibrio,
946
00:50:10,466 --> 00:50:13,678
Relájate, intenta hacer lo mejor que puedas con tu vida.
947
00:50:13,720 --> 00:50:15,513
tu inteligencia, tus finanzas.
948
00:50:15,555 --> 00:50:17,765
Haz un plan para ti que funcione para ti.
949
00:50:23,229 --> 00:50:26,399
No confíes demasiado en ninguna tecnología.
950
00:50:26,441 --> 00:50:29,777
Yo era del grupo anterior al microondas y al lavavajillas,
951
00:50:29,819 --> 00:50:31,446
¿usted sabe lo que quiero decir?
952
00:50:31,487 --> 00:50:32,989
Así que no teníamos microondas cuando yo era niño.
953
00:50:33,030 --> 00:50:34,782
Tuvimos que hacer todo eso manualmente.
954
00:50:34,824 --> 00:50:37,785
Y fue raro porque en casa se nos estropeó el microondas y
955
00:50:37,827 --> 00:50:40,413
Pasó como una semana antes de que consiguiera uno nuevo y lo instalé.
956
00:50:40,455 --> 00:50:42,498
Y le dije a mi esposa, ¿cómo sobrevivimos?
957
00:50:42,540 --> 00:50:44,292
¿Allá en nuestra infancia?
958
00:50:44,333 --> 00:50:46,127
No me di cuenta de lo dependientes que éramos.
959
00:50:46,169 --> 00:50:47,754
en ese único dispositivo.
960
00:50:47,795 --> 00:50:51,174
Tómate siempre tiempo para hablar con la gente cara a cara,
961
00:50:51,215 --> 00:50:53,009
tocarnos, abrazarnos.
962
00:50:53,050 --> 00:50:54,677
Necesitas esa interacción.
963
00:50:54,719 --> 00:50:57,847
Especialmente si tienes niños pequeños, ellos necesitan eso.
964
00:50:57,889 --> 00:50:59,515
Así que ese sería mi consejo.
965
00:50:59,557 --> 00:51:03,352
No dejemos que la humanidad acabe dentro de la tecnología.
82875
Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.