Elon Musk on AI and OpenAI
Subtitle language:
00:00 → 00:14
Buenas noches y bienvenidos al Lunes Feliz de Tucker Carlson.
00:14 → 00:19
La inteligencia artificial es uno de esos temas que es lo suficientemente espeluznante y de ciencia ficción como para hacer
00:19 → 00:21
para un segmento de televisión convincente.
00:21 → 00:23
Le encanta en los programas matutinos.
00:23 → 00:28
Pero al mismo tiempo, la IA es lo suficientemente compleja que es fácil tergiversarla.
00:28 → 00:33
Suena como algo que podría ser revolucionario, incluso peligroso para la humanidad.
00:33 → 00:34
¿Pero es así?
00:34 → 00:37
Y si es así, ¿qué debemos hacer al respecto?
00:37 → 00:41
Esas preguntas son lo suficientemente importantes como para que quisiéramos encontrar a alguien que pudiera proporcionar
00:41 → 00:43
una respuesta definitiva.
00:43 → 00:45
Elon Musk parecía la persona adecuada.
00:45 → 00:50
Musk ha estado pensando en la IA y preocupándose por ella durante la mayor parte de su vida.
00:50 → 00:56
Hace casi una década, ayudó a fundar un proyecto de investigación sin fines de lucro llamado OpenAI.
00:56 → 00:58
El punto estaba en el nombre.
00:58 → 01:03
Si vamos a tener inteligencia artificial, y al parecer lo estamos, debe ser abierto,
01:03 → 01:04
abierto al mundo.
01:04 → 01:08
Eso ayudaría a asegurar que se utiliza para el bien y no para el mal.
01:08 → 01:09
Esa era la idea.
01:09 → 01:14
Pero a medida que pasaban los años, Musk se encontraba preocupado por construir un par de enormes
01:14 → 01:19
compañías, SpaceX y Tesla, OpenAI se le escapó.
01:19 → 01:22
A partir de esta noche, OpenAI ya no está abierto.
01:22 → 01:27
No es un proyecto de investigación sin fines de lucro dedicado a utilizar la inteligencia artificial para servir
01:27 → 01:28
la humanidad.
01:28 → 01:33
En cambio, es una empresa comercial respaldada por Microsoft y controlada en cierta medida
01:33 → 01:35
por el Partido Demócrata.
01:35 → 01:38
Elon Musk cree que eso es un problema.
01:38 → 01:43
De hecho, él cree que es una amenaza para la civilización humana, equivalente a tal vez incluso más
01:43 → 01:46
más aterrador que las armas termonucleares.
01:46 → 01:51
La conversación que van a ver tuvo lugar recientemente en una habitación de hotel en Los Ángeles.
01:51 → 01:54
Creemos que es lo suficientemente importante como para que vayamos a jugar todo el asunto para usted más
01:54 → 01:57
el curso de esta noche y mañana.
01:57 → 01:59
Así es como comenzó la conversación.
01:59 → 02:03
Así que de repente la IA está en todas partes.
02:03 → 02:06
La gente que no estaba muy segura de lo que era está jugando con él en sus teléfonos.
02:06 → 02:07
¿Eso es bueno o malo?
02:07 → 02:08
- Sí, es cierto.
02:08 → 02:12
Así que he estado pensando en IA por mucho tiempo, desde que estaba en la universidad, en realidad.
02:12 → 02:16
Fue una de las cosas que, sólo una especie de cuatro o cinco cosas que pensé que realmente
02:16 → 02:19
afectan el futuro de manera dramática.
02:19 → 02:24
Es fundamentalmente profundo en que las criaturas más inteligentes, por lo que sabemos, en esta tierra
02:24 → 02:29
son humanos, es nuestra característica definidora.
02:29 → 02:36
Obviamente somos más débiles que, digamos, los chimpancés y menos ágiles, pero somos más inteligentes.
02:36 → 02:44
¿Qué pasa cuando aparece algo mucho más inteligente que la persona más inteligente?
02:44 → 02:45
¿En forma de silicio?
02:45 → 02:49
Es muy difícil predecir lo que sucederá en esa circunstancia.
02:49 → 02:50
Se llama la singularidad.
02:50 → 02:56
Es una singularidad como un agujero negro, porque no sabes lo que pasa después de eso.
02:56 → 02:57
Es difícil de predecir.
02:57 → 03:01
Así que creo que debemos ser cautelosos con la IA.
03:01 → 03:10
Y creo que debería haber un poco de supervisión del gobierno, porque es un peligro para el público.
03:10 → 03:18
Y así cuando tienes cosas que son un peligro para el público, como digamos comida y drogas.
03:19 → 03:27
Por eso tenemos la Administración de Alimentos y Medicamentos y la Administración Federal de Aviación, la FCC.
03:27 → 03:36
Tenemos estas agencias para supervisar cosas que afectan al público, donde podría haber daño público.
03:36 → 03:44
Y no queremos que las empresas hagan recortes en seguridad y que la gente sufra como resultado.
03:45 → 03:52
Por eso he sido durante mucho tiempo un firme defensor de la regulación de la IA.
03:52 → 03:59
Así que creo que la regulación es, ya sabes, no es divertido ser regulado.
03:59 → 04:03
Es un poco arduo ser regulado.
04:03 → 04:10
Tengo mucha experiencia con industrias reguladas, porque obviamente la automoción está muy regulada.
04:10 → 04:16
Podrías llenar esta sala con todas las regulaciones que se requieren para un coche de producción sólo en los Estados Unidos.
04:16 → 04:20
Y luego hay un conjunto de regulaciones completamente diferente en Europa y China y el resto del mundo.
04:20 → 04:25
Así que estoy muy familiarizado con ser supervisado por muchos reguladores.
04:25 → 04:28
Y lo mismo es cierto con los cohetes.
04:28 → 04:36
No puedes disparar cohetes sin más, no grandes, porque la FAA lo supervisa.
04:36 → 04:45
Y luego, incluso para obtener una licencia de lanzamiento, probablemente haya una media docena o más agencias federales que necesitan aprobarlo, además de agencias estatales.
04:45 → 04:50
Así que he pasado por tantas situaciones regulatorias, es una locura.
04:50 → 04:59
Y a veces la gente piensa que soy una especie de rebelde regulador que desafía a los reguladores de forma regular.
04:59 → 05:02
Pero en realidad no es así.
05:02 → 05:08
Así que una vez en una luna azul, raramente voy a estar en desacuerdo con los reguladores.
05:08 → 05:13
Pero la gran mayoría de las veces, mis compañías están de acuerdo con las regulaciones y cumplen.
05:13 → 05:22
Así que creo que deberíamos tomar esto en serio, y deberíamos tener una agencia reguladora.
05:22 → 05:29
Creo que tiene que comenzar con un grupo que inicialmente busca una visión de la IA,
05:29 → 05:35
En el caso de los productos de la industria, el Consejo de Administración ha adoptado una serie de medidas.
05:35 → 05:45
Y entonces esas reglas probablemente, con suerte a regañadientes, serán aceptadas por los principales actores en IA.
05:45 → 05:56
Y creo que tendremos una mejor oportunidad de que la IA avanzada sea beneficiosa para la humanidad en esa circunstancia.
05:56 → 05:58
Pero todas las regulaciones comienzan con un peligro percibido.
05:58 → 06:00
Los aviones caen del cielo o la comida causa botulismo.
06:00 → 06:01
- Sí, es cierto.
06:01 → 06:05
No creo que la persona promedio que juega con IA en su iPhone perciba ningún peligro.
06:05 → 06:08
¿Puede explicarnos en términos generales cuáles cree que podrían ser los peligros?
06:09 → 06:25
Sí , es cierto . Así que el peligro, realmente, de la IA es quizás más peligroso que, digamos, el diseño de aviones mal administrados o el mantenimiento de la producción
06:25 → 06:31
o la mala producción de coches en el sentido de que tiene el potencial.
06:31 → 06:35
Por pequeña que uno pueda considerar esa probabilidad, pero no es trivial.
06:35 → 06:38
Tiene el potencial de destrucción de la civilización.
06:38 → 06:41
Hay películas como Terminator, pero no sucedería como Terminator,
06:42 → 06:45
porque la inteligencia estaría en los centros de datos.
06:45 → 06:45
- ¿Qué? - Está bien.
06:45 → 06:47
El robot es sólo el ejector final.
06:48 → 06:54
Pero creo que quizás lo que usted está haciendo alusión aquí es que las regulaciones son realmente sólo
06:54 → 06:56
poner en vigor después de que algo terrible ha sucedido.
06:56 → 06:57
Eso es correcto.
06:57 → 07:01
Si ese es el caso de la IA y sólo ponemos en las regulaciones después de algo terrible ha
07:01 → 07:04
En el caso de que esto suceda, puede ser demasiado tarde para poner en práctica las normas.
07:04 → 07:05
La IA puede estar en control en ese momento.
07:06 → 07:09
¿Crees que eso es real?
07:09 → 07:13
Es concebible que la IA pueda tomar el control y llegar a un punto en el que no se pueda girar
07:13 → 07:17
y que tomaría las decisiones por la gente.
07:17 → 07:18
Sí , es cierto . - No , no
07:19 → 07:20
- No, por supuesto.
07:20 → 07:22
No, eso es definitivamente hacia donde se dirigen las cosas.
07:23 → 07:24
- ¿Qué? - Por supuesto.
07:26 → 07:32
Quiero decir, cosas como, por ejemplo, Chats GPT, que se basa en GPT-4 de OpenAI, que es un
07:32 → 07:38
compañía que yo jugé un papel crítico en la creación, por desgracia.
07:38 → 07:40
¿Cuando era una organización sin fines de lucro?
07:41 → 07:41
- Sí, es cierto.
07:43 → 07:51
Quiero decir, la razón por la que OpenAI existe es porque Larry Page y yo solíamos ser amigos cercanos
07:51 → 07:55
Y me quedaba en su casa en Palo Alto y hablaba con él hasta altas horas de la noche
07:55 → 07:57
sobre la seguridad de la IA.
07:58 → 08:03
Al menos mi percepción era que Larry no estaba tomando la seguridad de la IA lo suficientemente en serio.
08:05 → 08:06
¿Qué dijo él al respecto?
08:06 → 08:13
Él realmente parecía ser lo que una vez fue, una especie de superinteligencia digital, básicamente
08:13 → 08:17
Dios digital, si quieres, lo antes posible.
08:17 → 08:18
¿Él quería eso?
08:19 → 08:19
- Sí, es cierto.
08:19 → 08:25
Ha hecho muchas declaraciones públicas a lo largo de los años que todo el objetivo de Google es lo que es
08:25 → 08:28
llamado AGI, inteligencia general artificial o superinteligencia artificial.
08:29 → 08:34
Y estoy de acuerdo con él en que hay un gran potencial para el bien, pero también hay un potencial para el mal.
08:34 → 08:41
Y así, si tienes alguna nueva tecnología radical, quieres tratar de tomar un conjunto de acciones que
08:41 → 08:45
Maximizar probablemente hará el bien y minimizar probablemente hará cosas malas.
08:45 → 08:46
- Sí, es cierto.
08:46 → 08:47
No puede ser sólo salud o cuero.
08:47 → 08:52
Es sólo seguir adelante y esperar lo mejor.
08:52 → 08:57
Y luego en un momento dije, bueno, ¿qué tal si nos aseguramos de que la humanidad esté bien aquí?
09:00 → 09:04
Y luego me llamó un engañoso.
09:07 → 09:09
¿Él usó ese término?
09:09 → 09:09
- Sí, es cierto.
09:10 → 09:11
Y había testigos.
09:11 → 09:14
No era el único que estaba allí cuando me llamó un engañoso.
09:14 → 09:16
Y entonces pensé, OK, eso es todo.
09:17 → 09:18
Sí, soy un engañoso.
09:18 → 09:19
Está bien, me tienes.
09:21 → 09:21
¿Qué es usted?
09:24 → 09:25
Sí, soy un engañoso.
09:26 → 09:27
Fue detenido.
09:28 → 09:31
Así que esa fue la gota que colmó el vaso.
09:31 → 09:35
En ese momento, Google había adquirido DeepMind.
09:35 → 09:39
Y así Google y DeepMind juntos tenían alrededor de tres cuartas partes de todo el talento de IA en el
09:39 → 09:39
El mundo.
09:39 → 09:44
Obviamente tenían una enorme cantidad de dinero y más computadoras que cualquier otra persona.
09:44 → 09:52
OK, tenemos un mundo unipolar aquí donde sólo hay una compañía que tiene cerca de un monopolio
09:52 → 09:58
en el talento de la IA y las computadoras, como la computación a escala.
09:58 → 10:01
Y la persona que está a cargo no parece preocuparse por la seguridad.
10:01 → 10:02
Esto no es bueno.
10:04 → 10:07
Entonces pensé, ¿qué es lo más alejado de Google?
10:07 → 10:12
Sería como una organización sin fines de lucro que está totalmente abierta porque Google fue cerrado por ganancias.
10:12 → 10:18
Así que es por eso que la IA abierta y abierta se refiere a la transparencia de código abierto para que la gente sepa
10:18 → 10:19
¿Qué está pasando?
10:19 → 10:20
- Sí, es cierto.
10:20 → 10:25
Y que no queremos tener como un tiempo que normalmente estoy a favor de por ganancias.
10:25 → 10:29
No queremos que esto sea una especie de beneficio maximizando el demonio del infierno.
10:29 → 10:29
- Eso es. - ¿Qué?
10:30 → 10:31
Eso nunca se detiene.
10:31 → 10:32
- ¿Qué? - Está bien.
10:32 → 10:34
Así que así de abierta era la IA.
10:34 → 10:36
Quiere incentivos engañosos aquí.
10:36 → 10:37
Incentivos que.
10:37 → 10:40
Sí, creo que queremos ser pro-humanos.
10:40 → 10:40
- Sí, es cierto.
10:40 → 10:42
Como el futuro bueno para los humanos.
10:42 → 10:43
- Sí, es cierto.
10:43 → 10:45
Sí, porque somos humanos.
10:45 → 10:46
¿Puedes decirlo?
10:46 → 10:48
Sigo presionando, pero sólo para la gente que no ha pensado esto y no son
10:48 → 10:55
familiarizado con ella y las partes frescas de la inteligencia artificial son tan obvias, usted
10:55 → 10:58
Ya sabes, escribir tu trabajo de la universidad para ti, escribir un accidente de extremidad sobre ti mismo.
10:58 → 11:01
Hay mucho que es divertido y útil.
11:02 → 11:06
¿Puedes ser más preciso sobre lo que es potencialmente peligroso y aterrador?
11:06 → 11:08
¿Cómo qué podría hacer?
11:08 → 11:10
¿De qué te preocupa en concreto?
11:11 → 11:12
Yo voy con los viejos proverbios.
11:12 → 11:13
La pluma es más poderosa que la espada.
11:14 → 11:23
Así que si tienes una IA superinteligente que es capaz de escribir increíblemente bien y
11:23 → 11:30
de una manera que es muy influyente, usted está convenciendo y luego y es y es constantemente
11:30 → 11:35
averiguar lo que es lo que es más y lo que es más convincente para las personas con el tiempo y
11:35 → 11:42
Luego entran en las redes sociales, por ejemplo, Twitter, pero también Facebook y otros, ya sabes, y
11:42 → 11:46
potencialmente manipula la opinión pública de una manera que es muy mala.
11:47 → 11:48
¿Cómo podríamos saberlo?
11:50 → 11:51
¿Cómo lo sabemos?
11:52 → 11:58
Así que para resumir en las palabras de Elon Musk, para toda la historia humana, los seres humanos han sido
11:58 → 12:00
los seres más inteligentes del planeta.
12:01 → 12:05
Ahora los seres humanos han creado algo que es mucho más inteligente que ellos.
12:05 → 12:09
Y las consecuencias de eso son imposibles de predecir.
12:09 → 12:12
Y a la gente que lo creó no le importa.
12:12 → 12:17
De hecho, como él mismo dijo, el fundador de Google, Larry Page, un antiguo amigo suyo, está buscando
12:17 → 12:22
construir un, cito, dios digital y cree que cualquiera que se preocupe por eso es una especie.
12:22 → 12:26
En otras palabras, es cuidar de los seres humanos primero.
12:26 → 12:31
Elon Musk respondió como un ser humano, está bien cuidar primero a los seres humanos.
12:32 → 12:36
Y luego al final, dijo que el verdadero problema con la IA no es simplemente que va a
12:36 → 12:39
saltar los límites y volverse autónomo y no se puede apagar.
12:39 → 12:44
A corto plazo, el problema con la IA es que podría controlar tu cerebro a través de las palabras.
12:45 → 12:49
Y esta es la aplicación que tenemos que preocuparse ahora, en particular entrar en el
12:49 → 12:51
las próximas elecciones presidenciales.
12:51 → 12:54
El Partido Demócrata, como de costumbre, estaba a la vanguardia en esto.
12:54 → 12:58
Han estado pensando en cómo aprovechar la IA para el poder político.
12:58 → 12:59
Más sobre eso después.
13:01 → 13:12
A largo plazo, la IA puede volverse autónoma y apoderarse del mundo, pero a corto plazo
13:12 → 13:17
término, está siendo utilizado por los políticos para controlar lo que piensas, para terminar con tu juicio independiente
13:17 → 13:20
y borrar la democracia en la víspera de una elección presidencial.
13:20 → 13:22
Elon Musk está muy preocupado por eso.
13:23 → 13:25
Nos contó su plan para detenerlo.
13:28 → 13:30
Lo que está pasando es que están entrenando a la IA para que mienta.
13:31 → 13:31
Es malo.
13:31 → 13:32
Para mentir.
13:32 → 13:33
Eso es exactamente cierto.
13:33 → 13:34
Y para ocultar información.
13:34 → 13:36
Para mentir y sí.
13:39 → 13:39
Sí, eso es.
13:39 → 13:46
Para comentar sobre algunas cosas, no comentar sobre otras cosas, pero no decir lo que los datos
13:48 → 13:50
en realidad exige que se diga.
13:50 → 13:50
- Eso es.
13:53 → 13:54
¿Cómo se puso así?
13:54 → 13:56
Pensé que lo había financiado al principio.
13:56 → 13:57
¿Qué pasó? ¿Qué pasó?
13:57 → 13:58
Sí, bueno, eso sería irónico.
13:59 → 14:01
El resultado más irónico es lo más probable que parezca.
14:04 → 14:05
Me lo estoy robando.
14:05 → 14:06
Eso es bueno.
14:06 → 14:08
En realidad, a un amigo mío, Jonah, se le ocurrió esa.
14:08 → 14:11
En realidad tengo una ligera variante de eso, que es el resultado más entretenido es el más
14:11 → 14:15
Probablemente, pero eso es entretenido visto desde un punto de vista de terceros.
14:16 → 14:18
Así que si somos como un programa de televisión alienígena.
14:18 → 14:18
- Sí, es cierto.
14:20 → 14:24
Vas a ver una película sobre la Primera Guerra Mundial y están siendo explotados en pedazos y gaseados y todo
14:24 → 14:27
en las trincheras y es como si estuvieras comiendo palomitas de maíz y tomando una soda.
14:28 → 14:30
No es tan bueno para la gente de la película.
14:30 → 14:30
Es cierto.
14:30 → 14:31
Esto es una navaja de Occam.
14:31 → 14:36
La explicación más simple es la variante de Jonás, que es la ironía.
14:36 → 14:43
Y luego mi variante, que es la más entretenida vista por una audiencia de terceros,
14:44 → 14:45
que parece ser en su mayoría cierto.
14:46 → 14:47
Pero parece cierto en este caso.
14:47 → 14:49
Así que les dio, ¿les dio mucho?
14:49 → 14:55
Se me ocurrió el nombre y el concepto y empujé, tuve varias cenas alrededor de la Bahía
14:55 → 15:01
área con algunas de las personas, las figuras principales en IA.
15:03 → 15:05
Y ayudé a reclutar al equipo inicial.
15:06 → 15:15
De hecho, Ilya Sutskaya, que fue realmente fundamental para el éxito de OpenAI,
15:19 → 15:23
Puse una enorme cantidad de esfuerzo en reclutar a Ilya y cambió de opinión unas cuantas veces y
15:23 → 15:25
en última instancia, decidió ir con OpenAI.
15:25 → 15:28
Pero si no hubiera elegido OpenAI, no habría tenido éxito.
15:29 → 15:34
He puesto mucho esfuerzo en crear esta organización para servir como contrapeso a Google.
15:35 → 15:37
Y entonces me quité la vista de la pelota, supongo.
15:37 → 15:46
Y ahora son de código cerrado y son obviamente para el beneficio y son
15:48 → 15:50
estrechamente aliado con Microsoft.
15:50 → 15:55
En efecto, Microsoft tiene una voz muy fuerte, si no
15:58 → 16:01
controla directamente OpenAI en este punto.
16:01 → 16:03
Así que realmente tienes una situación de OpenAI y Microsoft.
16:03 → 16:08
Y luego Google DeepMind son los dos tipos de pesos pesados en esta arena.
16:09 → 16:12
Así que parece que el mundo necesita una tercera opción.
16:13 → 16:13
- Sí, es cierto.
16:14 → 16:21
Así que creo que voy a crear una tercera opción, aunque empezando muy tarde en el juego, por supuesto.
16:22 → 16:23
¿Se puede hacer?
16:23 → 16:24
No lo sé. ¿Qué?
16:24 → 16:25
Creo que ya veremos.
16:25 → 16:27
Definitivamente está empezando tarde.
16:30 → 16:33
Pero voy a tratar de crear una tercera opción.
16:35 → 16:39
Y esa tercera opción, con suerte, hace más bien que mal.
16:39 → 16:44
La intención con OpenAI era obviamente hacer el bien, pero no está claro si es
16:44 → 16:46
realmente haciendo el bien o si es...
16:47 → 16:54
No puedo decirlo en este momento, excepto que estoy preocupado por el hecho de que está siendo entrenado
16:54 → 16:59
para ser políticamente correcto, que es simplemente otra forma de decir cosas falsas.
16:59 → 17:01
Así que es una mala señal.
17:02 → 17:06
Ciertamente hay un camino hacia la distopía de la IA, es entrenar a una IA para ser engañosa.
17:06 → 17:12
Así que sí, voy a empezar algo que sé que llamó TruthGBT, o una verdad máxima
17:12 → 17:16
Buscando una IA que intente entender la naturaleza del universo.
17:16 → 17:22
Y creo que este podría ser el mejor camino hacia la seguridad en el sentido de que una IA que se preocupa
17:22 → 17:28
acerca de la comprensión del universo es poco probable que aniquilar a los seres humanos porque somos un interesante
17:28 → 17:29
parte del universo.
17:30 → 17:32
Con suerte, ellos pensarían eso.
17:32 → 17:40
Creo que, porque sí, como la humanidad podría decidir cazar a todos los chimpancés y
17:40 → 17:42
matarlos, pero nosotros no.
17:42 → 17:44
Porque en realidad estamos contentos de que existan.
17:45 → 17:48
Y aspiramos a proteger su hábitat.
17:48 → 17:53
Pero nos sentimos así porque tenemos almas y eso nos hace sentimentales y reflexivos.
17:53 → 17:57
Nos da un sentido moral, anhelos.
17:57 → 17:59
¿Puede una máquina tener esas cosas?
17:59 → 18:00
¿Puede una máquina ser sentimental?
18:01 → 18:02
¿Puede apreciar la belleza?
18:04 → 18:10
Bueno, quiero decir, estamos entrando en algunas áreas filosóficas que son difíciles de resolver.
18:13 → 18:18
Sabes, tengo una visión científica de las cosas, que es que podríamos tener
18:18 → 18:20
un alma o podríamos no tener un alma.
18:20 → 18:20
No lo sé. ¿Qué?
18:21 → 18:26
Siento que tenemos, siento que tengo algún tipo de conciencia que existe en
18:26 → 18:29
un plano que no es el que observamos.
18:30 → 18:32
Eso es ciertamente lo que siento, pero podría ser una ilusión.
18:32 → 18:33
No lo sé. ¿Qué?
18:34 → 18:44
Pero para la IA, en términos de entender la belleza, es una forma diferente de apreciar la belleza.
18:44 → 18:48
y ser capaz de crear un arte increíblemente hermoso.
18:49 → 18:52
¿Será la IA capaz de crear un arte increíblemente hermoso?
18:52 → 18:53
Ya lo hace.
18:53 → 18:53
Sí, lo sé. ¿Qué es lo que quieres?
18:53 → 18:57
Si ves algo de Maggioni, esta cosa, es increíble.
18:57 → 18:57
- Es cierto.
18:58 → 19:07
Así que no hay duda de que puede crear arte que percibimos como impresionante, en realidad.
19:09 → 19:17
Y ahora hace imágenes fijas, pero no pasará mucho tiempo antes de que haga películas y cortos.
19:19 → 19:21
Las películas son sólo una serie de cuadros con audio.
19:21 → 19:27
Pero en ese punto, porque puede imitar a las personas y las voces, cualquier imagen, puede imitar la realidad
19:27 → 19:28
la misma tan eficazmente.
19:31 → 19:32
Quiero decir, ¿cómo puedes tener un juicio criminal?
19:34 → 19:37
Quiero decir, ¿cómo pudiste creer que la evidencia era auténtica, por ejemplo?
19:38 → 19:40
Y no me refiero a dentro de 30 años, me refiero a como el próximo año.
19:41 → 19:46
Quiero decir, eso parece totalmente perturbador para todas nuestras instituciones.
19:46 → 19:47
Pero no estoy tan preocupado.
19:48 → 19:56
Creo que es más como, ¿controlará la humanidad su destino o no?
19:56 → 20:00
¿Tendremos un futuro mejor que el pasado o no?
20:03 → 20:06
¿La humanidad controlará su futuro o no?
20:07 → 20:11
Y mientras tanto, ¿cómo se usará esto para controlarnos?
20:11 → 20:15
Si has jugado con las últimas versiones de IA, aprenderás
20:15 → 20:21
Prefiere acabar con el mundo con un Armagedón nuclear antes de que uses palabras malas.
20:21 → 20:22
Así que esas son sus prioridades.
20:23 → 20:29
Elon Musk es un gran creyente en la libertad de expresión, tan fuerte que compró Twitter, una compañía
20:29 → 20:34
no necesitaba y no se ha beneficiado de, como una forma de restaurar la libertad de expresión en Internet,
20:34 → 20:38
para llevarnos de vuelta, digamos, seis años al país libre en el que vivíamos entonces.
20:38 → 20:44
Y una vez que compró Twitter, descubrió que no era realmente una aplicación de redes sociales.
20:44 → 20:48
Era realmente una herramienta para las agencias de inteligencia globales.
20:48 → 20:50
Tiene que contar después del descanso.
20:55 → 20:58
Elon Musk compró Twitter porque él usaba Twitter.
20:58 → 20:59
Es así de simple.
20:59 → 21:03
Y estaba furioso por el esfuerzo de Twitter para silenciar a la gente en Internet.
21:04 → 21:06
Así de fuerte creía en la libertad de expresión.
21:06 → 21:10
Pagó $44 mil millones e inmediatamente perdió decenas de miles de millones de dólares haciéndolo.
21:10 → 21:15
Y cuando se hizo cargo y miró detrás de la cortina, descubrió que Twitter era realmente
21:15 → 21:20
una herramienta de las agencias de inteligencia global para espiar a la gente y emitir propaganda.
21:20 → 21:20
Aquí está.
21:24 → 21:25
Usted compró Twitter famosamente.
21:25 → 21:29
Tienes muchos otros negocios y muchas cosas que hacer.
21:29 → 21:29
- Sí, es cierto.
21:29 → 21:32
Dijiste que lo compraste porque crees en la libertad de expresión.
21:33 → 21:35
Has tenido muchos problemas desde que lo compraste.
21:35 → 21:36
En retrospectiva, ¿valía la pena comprarlo?
21:36 → 21:41
Quiero decir, queda por ver si esto fue financieramente inteligente.
21:42 → 21:43
Actualmente, no lo es.
21:44 → 21:48
Acabamos de revalorizar la compañía a menos de la mitad del precio de adquisición.
21:48 → 21:48
¿De verdad lo hiciste?
21:48 → 21:49
- Sí, es cierto.
21:49 → 21:49
- Lo siento mucho.
21:53 → 22:02
No, mi tiempo fue terrible para cuando la oferta fue hecha porque era justo antes de la publicidad
22:02 → 22:02
Se desplomó.
22:02 → 22:03
- Sí, es cierto.
22:03 → 22:05
Te has puesto en la marca de agua alta, lo he notado.
22:05 → 22:05
- Sí, es cierto.
22:05 → 22:06
- Sí, es cierto.
22:06 → 22:07
Así que debo ser un verdadero genio aquí.
22:09 → 22:14
Mi sincronización es increíble ya que lo he comprado por al menos el doble de lo que debería haber sido
22:14 → 22:15
para el que se compró.
22:16 → 22:18
Pero algunas cosas no tienen precio.
22:18 → 22:26
Y así, si pierdo dinero o no, eso es un tema secundario en comparación con asegurar el
22:27 → 22:28
fuerza de la democracia.
22:28 → 22:32
Y la libertad de expresión es la base de una democracia que funciona.
22:32 → 22:32
- Sí, es cierto.
22:32 → 22:38
Y el discurso debe ser lo más transparente y veraz posible.
22:38 → 22:42
Así que tenemos un gran empuje en Twitter para ser lo más veraces posible.
22:42 → 22:45
Tenemos esta función de notas de la comunidad, que es genial.
22:45 → 22:45
Es genial.
22:45 → 22:46
Es increíble.
22:46 → 22:47
- Sí, es cierto.
22:47 → 22:47
Y es como...
22:47 → 22:48
Lo vi esta mañana.
22:48 → 22:49
- Sí, es cierto.
22:49 → 22:51
Era mucho más honesto que el New York Times.
22:51 → 22:51
Es genial.
22:51 → 22:52
- Sí, es cierto.
22:52 → 22:57
Ponemos mucho esfuerzo para asegurarnos de que las notas de la comunidad no sean manipuladas o tengan sesgos.
22:57 → 23:00
Simplemente se preocupa por lo que es lo más importante.
23:00 → 23:03
Simplemente se preocupa por lo que es lo más preciso.
23:04 → 23:09
Y a veces la verdad puede ser un poco esquiva, pero puedes aspirar a acercarte a ella.
23:09 → 23:10
- Sí, es cierto.
23:13 → 23:19
Y creo que el efecto de las notas comunitarias es más poderoso de lo que la gente se da cuenta,
23:19 → 23:24
porque una vez que la gente sabe que podrían ser notados, la comunidad notó en Twitter, entonces van
23:24 → 23:27
Piensa más cuidadosamente en lo que dicen.
23:28 → 23:29
Es probable que...
23:29 → 23:32
Básicamente, es un estímulo para ser más veraces y menos engañosos.
23:32 → 23:36
Cuando saltaste a esto, sin embargo, cuando lo compraste, ¿entendiste...
23:36 → 23:37
Bueno, claramente entendiste su importancia.
23:37 → 23:38
No lo habrías comprado.
23:39 → 23:40
Twitter, sí, es su nombre.
23:40 → 23:40
- ¿Qué? - Está bien.
23:40 → 23:44
Pero no es la más grande, pero es la más importante en las compañías de medios sociales.
23:44 → 23:50
Pero ¿entendiste el tipo de ferocidad que estarías enfrentando, los ataques que estarías enfrentando de
23:51 → 23:52
¿Qué es lo que se ha hecho en los centros de poder del país?
23:53 → 23:56
Pensé que probablemente habría algunas reacciones negativas.
23:58 → 24:03
Estoy seguro de que no todos estarían contentos con eso.
24:04 → 24:10
Pero al final del día, si el público está contento con eso, eso es lo que importa.
24:12 → 24:13
Y el público hablará con sus acciones.
24:16 → 24:19
Si encuentran que Twitter es útil, lo usarán más.
24:19 → 24:22
Y si no lo encuentran útil, lo usarán menos.
24:22 → 24:25
Si encuentran que es la mejor fuente de la verdad, creo que la usarán más.
24:26 → 24:33
Sabes, obviamente hay muchas organizaciones que están acostumbradas a tener una especie de libertad
24:33 → 24:37
influencias en Twitter que ya no tienen eso.
24:37 → 24:41
Esta mañana poníamos el New York Times en su insignia, y luego los llamaste diarrea.
24:41 → 24:42
Los llamaste...
24:43 → 24:43
Usted lo hizo.
24:43 → 24:44
Usted lo hizo.
24:44 → 24:45
Sólo estoy citándote.
24:45 → 24:48
Usted describió su cuenta de Twitter como diarrea.
24:48 → 24:51
Dije que era el equivalente de Twitter de la diarrea.
24:51 → 24:52
Bueno, no es literalmente diarrea.
24:52 → 24:55
No, es una metáfora.
24:56 → 24:58
Pero una precisa.
24:59 → 25:03
Así que, quiero decir, si miras el feed de Twitter del NY Times, es ilegible.
25:04 → 25:09
Porque lo que hacen es que tuitean cada artículo, incluso los que son aburridos,
25:09 → 25:11
Incluso los que no llegan al periódico.
25:12 → 25:16
Así que es sin parar, un millón de tweets al día sin...
25:18 → 25:21
¿Sabes? Deberían decir, ¿cuáles son los mejores tuits?
25:21 → 25:21
- Sí, es cierto.
25:22 → 25:24
¿Cuáles son las grandes noticias del día?
25:25 → 25:28
No lo sé, poner como 10 o algo así.
25:28 → 25:32
Ya sabes, un número que es manejable, en lugar de ahora mismo, si usted fuera a seguir
25:33 → 25:38
en el NY Times en Twitter, vas a ser bombardeado con como cientos de tweets al día.
25:38 → 25:40
Y toda tu alimentación estará llena de NY Times.
25:40 → 25:48
Así que esto es algo que recomendaría en realidad para todas las publicaciones, que es, para su primaria
25:48 → 25:50
alimentación, sólo ponen su mejor material.
25:50 → 25:55
Creo que sé una cosa o dos sobre cómo usar Twitter, porque yo era el más interactuado
25:55 → 26:00
con la cuenta en todo el sistema antes de la adquisición, antes de la adquisición cerrada.
26:00 → 26:02
No tenía el mayor número de seguidores, pero tenía el mayor número de interacciones.
26:03 → 26:06
Y claramente sé algo sobre cómo usar Twitter.
26:06 → 26:10
La atención de la gente es limitada, así que asegúrate de poner las cosas más importantes ahí.
26:10 → 26:18
Así que porque usted y la gente como usted interactúan en Twitter, es obviamente enormemente poderoso
26:18 → 26:20
en la formación de la opinión pública.
26:20 → 26:22
Es donde se incuban muchas ideas y tendencias.
26:22 → 26:22
- Sí, es cierto.
26:22 → 26:23
Lo sabes, por eso lo compraste.
26:23 → 26:24
- No, por supuesto.
26:24 → 26:28
También es un imán para las agencias de inteligencia de todo el mundo.
26:28 → 26:32
Y una de las cosas que aprendimos después de que comenzó a abrir los libros es que eran
26:32 → 26:34
ejerciendo influencia desde dentro de Twitter.
26:35 → 26:36
Quiero decir, fue absurdo.
26:39 → 26:40
¿Sabías eso cuando entraste?
26:40 → 26:41
No, no lo es.
26:42 → 26:48
Como he sido un gran usuario de Twitter desde 2009, es como si estuviera en la matriz.
26:48 → 26:52
Puedo ver, ¿se sienten bien las cosas?
26:52 → 26:53
¿No se sienten bien?
26:53 → 26:56
¿Qué tweets me están mostrando como recomendados?
26:58 → 27:01
Tengo una idea, ¿qué cuentas están haciendo comentarios?
27:02 → 27:05
¿Dónde están los comentarios tan parecidos?
27:07 → 27:10
Y luego miras la cuenta y es obviamente una foto falsa.
27:10 → 27:15
Y es obvio que es un grupo de bots una y otra vez.
27:15 → 27:20
Empecé a sentirme cada vez más incómodo con la situación de Twitter.
27:20 → 27:22
Empecé a sentir que algo andaba mal en el estado de Dinamarca.
27:24 → 27:26
Algo parece estar mal con la plataforma.
27:26 → 27:28
Parecía estar a la deriva en un...
27:29 → 27:31
No pude ubicarlo exactamente.
27:32 → 27:34
Se sentía como si estuviera a la deriva en una mala dirección.
27:34 → 27:35
Entonces yo estaba como...
27:36 → 27:43
Y mis conversaciones con la junta y la dirección parecen confirmar mi intuición sobre eso.
27:43 → 27:46
Pero básicamente estaba convencido de que a estos tipos no les importa arreglar Twitter.
27:49 → 27:53
Y tenía un mal presentimiento sobre hacia dónde iba basado en las conversaciones que tuve con ellos.
27:53 → 27:55
Entonces pensé, ¿sabes qué?
27:57 → 28:01
Intentaré adquirirlo y veré si es posible.
28:03 → 28:04
Ahora no tenía suficiente dinero para adquirirlo.
28:04 → 28:09
Así que necesitaría el apoyo de otros, de algunos de los inversores existentes.
28:09 → 28:11
También necesitaría mucha deuda.
28:11 → 28:16
Y así no estaba claro para mí si una adquisición tendría éxito, pero pensé que lo intentaría.
28:16 → 28:19
Y finalmente tuvo éxito.
28:19 → 28:20
De todos modos, aquí estamos.
28:21 → 28:25
Pero cuando llegas allí y de repente lo posees y todos los datos en los servidores te pertenecen...
28:26 → 28:28
Pertenece a la gente en mi opinión, pero sí.
28:28 → 28:30
Pero puedes ver lo que es.
28:30 → 28:31
Y se puede ver lo que han estado haciendo.
28:31 → 28:33
Y puedes ver quién ha estado trabajando allí.
28:33 → 28:39
¿Se sorprendió al descubrir que varias agencias de inteligencia estaban afectando sus operaciones?
28:39 → 28:46
El grado en que varias agencias gubernamentales han tenido acceso a todo
28:46 → 28:48
lo que estaba pasando en Twitter me dejó sin aliento.
28:49 → 28:50
No estaba al tanto de eso.
28:50 → 28:51
¿Eso incluye los mensajes de correo electrónico de la gente?
28:53 → 28:53
- Sí, es cierto.
28:56 → 28:58
Sí, porque los mensajes no están encriptados.
28:58 → 29:02
Así que una de las primeras, ya sabes, una de las cosas que estamos a punto de lanzar es el
29:02 → 29:03
la capacidad de cifrar sus mensajes.
29:03 → 29:08
Eso es un trabajo bastante pesado, porque mucha gente conocida, periodistas hablando
29:08 → 29:11
a sus fuentes, funcionarios del gobierno, las personas más ricas del mundo, están enviando mensajes
29:11 → 29:12
uno al otro.
29:13 → 29:17
Y la suposición, obviamente, era incorrecta, pero era que eso es privado, pero eso era
29:17 → 29:19
¿Está siendo leído por varios gobiernos?
29:20 → 29:21
Sí, parece ser el caso.
29:23 → 29:23
Es aterrador.
29:24 → 29:25
Sí, es cierto.
29:25 → 29:32
Así que como dije, nos estamos moviendo para tener los DMs opcionalmente encriptados.
29:32 → 29:35
Quiero decir, ya sabes, hay como un montón de conversaciones DM que son, ya sabes, sólo charlando
29:35 → 29:35
con amigos.
29:35 → 29:36
- ¿Qué? - Por supuesto.
29:36 → 29:37
No es importante.
29:37 → 29:37
- Por supuesto que sí.
29:38 → 29:42
Eso es con suerte salir a finales de este mes, pero no más tarde del próximo mes, es la capacidad
29:42 → 29:45
para activar o desactivar el cifrado.
29:45 → 29:49
Así que si usted está en una conversación que usted piensa es sensible, usted puede simplemente cambiar el cifrado
29:49 → 29:52
en Twitter y luego nadie en Twitter puede ver lo que estás hablando.
29:52 → 29:54
Podría ponerme un arma en la cabeza y no lo sabría.
29:54 → 29:55
No pude hacerlo.
29:57 → 29:58
Es como el test de la pistola en la cabeza.
29:58 → 30:03
Si alguien me pone un arma en la cabeza y aún así no puedo ver tus mensajes, eso debería ser,
30:03 → 30:04
Es la prueba de ácido.
30:04 → 30:05
- Sí, es cierto.
30:05 → 30:09
Y así es como debe ser si quieres tu
30:09 → 30:11
¿Ha recibido quejas de varios gobiernos por hacer esto?
30:12 → 30:14
No he tenido quejas directas conmigo.
30:14 → 30:17
He tenido algunas quejas indirectas.
30:17 → 30:20
Creo que la gente está un poco preocupada por quejarse directamente conmigo en caso de que tuitee
30:20 → 30:21
- No lo sé.
30:23 → 30:24
Ya lo sabes.
30:26 → 30:27
Ellos son como, uh-oh.
30:28 → 30:30
Así que están tratando de ser más redondos que eso.
30:30 → 30:36
Ya sabes, quiero decir, si tengo algo que era inconstitucional de la U. S. el gobierno,
30:36 → 30:40
mi respuesta sería enviarles una copia de la Primera Enmienda y decir algo como,
30:40 → 30:41
¿Qué parte de esto estamos entendiendo mal?
30:43 → 30:46
Tienes muchos contratos con el gobierno.
30:46 → 30:47
¿Qué parte de esto estamos mal?
30:47 → 30:47
Por favor, dime qué es.
30:47 → 30:50
Es decir, es un bonito no, solo digo, pero estás expuesto a otros negocios.
30:50 → 30:55
Así que esto es, por si nuestros espectadores no están siguiendo esto, esto no es, no estás sólo
30:55 → 30:57
como un periodista tomando una posición en nombre de la Primera Enmienda.
30:57 → 31:01
Eres un tipo con grandes contratos del gobierno dando el dedo al gobierno.
31:01 → 31:09
¿Crees que Twitter será tan central en esta campaña presidencial como lo fue en la
31:09 → 31:09
¿Las últimas?
31:10 → 31:15
Creo que jugará un papel importante en las elecciones, no sólo a nivel nacional, sino internacionalmente.
31:15 → 31:21
El objetivo del nuevo Twitter es ser lo más justo y imparcial posible.
31:22 → 31:32
Así que no favoreciendo ninguna ideología política, sino siendo justo en absoluto.
31:32 → 31:33
¿Por qué Facebook no hace esto?
31:33 → 31:37
Sé que Zuckerberg ha dicho, y lo tomo en serio, que él, bueno,
31:38 → 31:43
En realidad lo hago de esta manera, que es una especie de liberal a la antigua que no le gusta
31:43 → 31:44
El censor.
31:44 → 31:49
Lo ha hecho, pero él, ya sabes, como, ¿por qué no una compañía como esa tomar el puesto que usted
31:49 → 31:50
¿Qué ha tomado?
31:50 → 31:57
Está muy arraigado en la costumbre política tradicional americana, ya sabes, por la libertad de expresión.
31:58 → 32:04
Mi entendimiento es que Zuckerberg gastó $400 millones en la última elección,
32:05 → 32:09
nominalmente en una campaña de salida al voto, pero en realidad fundamentalmente en apoyo de los demócratas.
32:09 → 32:10
¿Es eso cierto o no?
32:10 → 32:11
Eso es exacto.
32:12 → 32:14
¿Te parece eso imparcial?
32:14 → 32:15
No, no lo hace.
32:15 → 32:15
- Sí, es cierto.
32:16 → 32:22
¿Entonces no ves esperanza de que Facebook se acerque a esto como un árbitro no alineado?
32:22 → 32:24
Has permitido que Donald Trump vuelva a Twitter.
32:24 → 32:27
No ha aceptado tu oferta porque tiene su propia cosa.
32:27 → 32:27
- ¿Qué? - Está bien.
32:27 → 32:29
¿Crees que volverá a Twitter?
32:31 → 32:32
Bueno, eso obviamente depende de él.
32:33 → 32:43
Mi trabajo es tomar la libertad de expresión muy en serio.
32:43 → 32:47
Así que es... ya sabes, no voté por Donald Trump.
32:47 → 32:48
De hecho, voté por Biden.
32:48 → 32:53
No digo que soy un gran fan de Biden porque creo que probablemente sería inexacto.
32:53 → 32:58
Pero, ya sabes, tenemos decisiones difíciles que tomar en estas elecciones presidenciales.
32:58 → 33:07
No es que prefiera, francamente, que pusiéramos a alguien, una persona normal como presidente,
33:08 → 33:14
Una persona normal con sentido común y cuyos valores están justo en el medio del país,
33:14 → 33:17
ya sabes, sólo, ya sabes, el centro de la distribución normal.
33:17 → 33:20
Y creo que eso sería genial.
33:20 → 33:25
Sabes, creo que hemos hecho que quizás ser presidente no sea tan divertido, sabes,
33:27 → 33:27
para ser totalmente franco.
33:30 → 33:35
El público ya no confía en las grandes organizaciones de noticias porque son obviamente sucias.
33:35 → 33:36
y deshonesto.
33:36 → 33:40
No confían en las compañías de redes sociales porque, como acaban de escuchar, Facebook está trabajando para el
33:40 → 33:41
El Partido Demócrata.
33:41 → 33:45
Le preguntamos a Elon Musk cómo va a hacer de Twitter un lugar en el que la gente pueda confiar
33:45 → 33:49
y cómo va a hacer eso después de despedir al 80% de su personal.
33:49 → 33:50
Eso es lo siguiente.
33:55 → 33:59
Así que el titular aquí hasta ahora es que antes de que Elon Musk lo compró, Twitter no era tanto
33:59 → 34:05
un sitio de redes sociales como una trampa de miel operado por agencias de inteligencia globales, incluyendo la nuestra.
34:05 → 34:10
Una de las primeras cosas que hizo Elon Musk fue despedir a todos los espías que trabajaban en Twitter.
34:10 → 34:14
Luego despidió a mucha gente, también, incluyendo a todo el departamento de relaciones públicas, de RR.HH.
34:14 → 34:18
departamento y un montón de otros bagajes inútiles que no estaban ayudando a la compañía hacer nada
34:18 → 34:19
vale la pena hacer.
34:19 → 34:20
¿Y qué pasó después?
34:20 → 34:21
Nosotros le preguntamos.
34:24 → 34:32
Encontró un pastel de encogimiento, obviamente, para la mayoría de las compañías de medios tradicionales y los hizo
34:32 → 34:38
más desesperados por conseguir clics, por llamar la atención.
34:40 → 34:52
Y cuando están en un estado desesperado, entonces tienden a realmente empujar titulares que
34:52 → 34:54
obtener la mayor cantidad de clics, si esos titulares son exactos o no.
34:55 → 35:03
Y así ha resultado, en mi opinión, creo que la mayoría de la gente estaría de acuerdo, en una menos veraz,
35:03 → 35:04
noticias menos exactas.
35:08 → 35:09
Porque tienen que hacer que la gente se levante.
35:11 → 35:18
Y creo que también ha aumentado la negatividad de las noticias, porque creo que los humanos instintivamente
35:19 → 35:20
Responden más a lo negativo.
35:20 → 35:31
Creo que tenemos un sesgo negativo instintivo, que tiene sentido en eso, como, vamos a
35:31 → 35:38
Es más importante recordar dónde estaba el león o dónde estaba la tribu que quiere
35:38 → 35:42
¿Dónde está el arbusto con bayas?
35:43 → 35:48
Una es como un resultado negativo permanente y la otra es como, bueno, podría pasar hambre.
35:49 → 35:56
Así que significa que hay una asimetría y una especie de una asimetría evolucionada en negativo frente
35:56 → 35:57
cosas positivas.
35:58 → 36:03
Y también, históricamente, las cosas negativas habrían sido bastante proximidad, como lo haría
36:03 → 36:10
han estado cerca, representa un peligro real para usted como persona si usted escuchó noticias negativas.
36:11 → 36:16
Porque históricamente, como hace unos cientos de años, no estamos escuchando acerca de lo que negativo
36:16 → 36:17
Las cosas están sucediendo en el otro lado del mundo.
36:18 → 36:20
O en el otro lado del país, sólo estamos escuchando cosas negativas en
36:20 → 36:25
nuestro pueblo, cosas que podrían tener un efecto negativo en ti.
36:25 → 36:30
Mientras que ahora estamos escuchando acerca de, quiero decir, las noticias muy a menudo parece tratar de responder
36:30 → 36:32
la pregunta, ¿cuál es la peor cosa que ha sucedido en la Tierra hoy?
36:33 → 36:36
Y te preguntas por qué lo dijiste después de leer eso, ¿sabes?
36:36 → 36:39
¿Lees algún medio de comunicación tradicional?
36:39 → 36:42
Quiero decir, realmente recibo la mayoría de mis noticias de Twitter en este momento.
36:43 → 36:47
Es la fuente de noticias número uno, creo, en el mundo en este momento.
36:47 → 36:49
¿Qué porcentaje de su personal despidió en Twitter?
36:50 → 36:51
Una de las grandes historias de negocios del año.
36:52 → 36:56
Creo que somos alrededor del 20% del tamaño original.
36:56 → 36:57
¿Entonces queda el 80%?
36:58 → 36:58
- Sí, es cierto.
36:59 → 36:59
Así que ...
37:00 → 37:02
Mucha gente voluntariamente...
37:02 → 37:02
- Claro, por supuesto.
37:04 → 37:06
El 80% se han ido desde el día que se hizo cargo.
37:06 → 37:06
Eso es correcto, sí.
37:06 → 37:09
¿Cómo manejas la compañía con sólo el 20% del personal?
37:10 → 37:14
Resulta que no se necesita tanta gente para manejar Twitter.
37:14 → 37:15
¿Pero el 80%?
37:15 → 37:15
Eso es mucho.
37:16 → 37:17
Sí, es cierto.
37:19 → 37:24
Quiero decir, si no estás tratando de ejecutar algún tipo de organización activista glorificado,
37:26 → 37:28
y no te importa mucho la censura,
37:28 → 37:31
Entonces puedes dejar ir a mucha gente, resulta.
37:35 → 37:38
¿Cuántos otros, sin nombrar nombres, pero cuántos-
37:38 → 37:41
Cené con alguien que dirige una gran compañía recientemente,
37:41 → 37:43
Él dijo, estoy realmente inspirado por Elon.
37:43 → 37:44
Y yo dije, ¿la libertad de expresión?
37:44 → 37:46
Él dice, no, las cosas del personal.
37:48 → 37:53
¿Cuántos otros directores han venido a hablar de esto?
37:54 → 37:55
Paso mucho tiempo en el trabajo.
37:55 → 37:58
Así que no es como si me estuviera reuniendo con mucha gente.
37:58 → 38:00
Ellos ven las acciones que he tomado.
38:04 → 38:08
Pero creo que acabamos de tener una situación en Twitter donde estaba absurdamente sobrecargado.
38:08 → 38:10
Ya sabes, así que no fue...
38:11 → 38:14
Si nos fijamos, digamos, ¿qué se necesita realmente para operar Twitter?
38:15 → 38:19
Sabes, la mayor parte de lo que estamos hablando aquí es un servicio de texto grupal a escala.
38:21 → 38:24
¿Cuántas personas se necesitan para eso?
38:24 → 38:24
¿Sabes qué?
38:26 → 38:28
Y si miras el, digamos, como,
38:29 → 38:33
¿cuál ha sido el desarrollo de productos con el tiempo con Twitter?
38:33 → 38:36
Y dices, como, ya sabes, años versus mejoras en el producto,
38:36 → 38:38
y es como una línea bastante plana.
38:39 → 38:40
¿Qué están haciendo?
38:40 → 38:41
¿Sabes qué?
38:42 → 38:45
Nos llevó un año añadir un botón de edición que no funciona la mayoría de las veces.
38:46 → 38:47
Quiero decir, esto es...
38:47 → 38:49
Siento que hay una situación de comedia aquí.
38:52 → 38:53
No estás haciendo coches, ¿sabes?
38:54 → 38:58
Es muy difícil hacer coches o lanzar cohetes a la órbita.
38:58 → 39:04
Así que, ya sabes, la verdadera pregunta es, como, ¿cómo se hizo tan absurdamente sobrecargado?
39:04 → 39:05
Esto es una locura.
39:06 → 39:08
Así que de todos modos, eso es...
39:08 → 39:09
Y claramente está funcionando.
39:10 → 39:12
De hecho, creo que está funcionando mejor que nunca.
39:13 → 39:18
Hemos aumentado la capacidad de respuesta del sistema en algunos casos, más del 80%.
39:18 → 39:22
Estamos tratando de hacer de Twitter el lugar más confiable en Internet,
39:22 → 39:24
el lugar menos poco confiable en Internet.
39:24 → 39:25
No creo que nadie deba confiar en Internet,
39:25 → 39:29
pero tal vez podamos hacer que Twitter sea menos poco confiable.
39:29 → 39:36
Como dije, tratar de llegar a la gente la verdad lo mejor que podamos.
39:36 → 39:40
Cuando Elon Musk se hizo cargo de Twitter, la compañía tenía algo llamado equipo de derechos humanos.
39:41 → 39:43
No hubo un aumento medible en los derechos humanos en todo el mundo.
39:43 → 39:46
De hecho, Twitter estaba haciendo todo lo posible para aplastar los derechos humanos,
39:46 → 39:49
Comenzando con lo más básico, que es el derecho a decir lo que realmente piensas.
39:50 → 39:54
Elon Musk, en su tiempo libre, dirige la compañía de cohetes más grande del mundo.
39:55 → 39:59
No pude resistirme a preguntarle si alguna vez ve algo en el espacio que no sea humano.
39:59 → 40:00
Así que lo hicimos.
40:00 → 40:00
Eso es lo siguiente.
40:06 → 40:09
Elon Musk también dirige la compañía de cohetes más grande del mundo,
40:09 → 40:12
Así que no pudimos resistir preguntarle sobre los extraterrestres.
40:12 → 40:12
Por supuesto que lo hicimos.
40:15 → 40:20
Mucha gente me pregunta, ¿dónde están los extraterrestres?
40:20 → 40:25
Y creo que si alguien sabe de extraterrestres en la Tierra, probablemente sea yo.
40:25 → 40:26
Yo lo pensaría.
40:26 → 40:29
Sí, estoy, ya sabes, muy familiarizado con las cosas espaciales.
40:30 → 40:32
Mañana por la noche, su respuesta completa sobre eso,
40:33 → 40:39
y también sus puntos de vista sobre por qué las civilizaciones se levantan y por qué caen y qué podemos hacer al respecto.
40:39 → 40:43
Elon Musk ha decidido ayudar a repoblar la Tierra él mismo.
40:44 → 40:47
Vamos a contarle su pensamiento detrás de eso, o más bien él lo explicará.
40:47 → 40:50
Una segunda parte fascinante de nuestra entrevista con Elon Musk
40:50 → 40:53
Mañana por la noche aquí mismo a las 8 pm. m y. Este
40:53 → 40:55
Tenemos un nuevo documental, por cierto, en Fox Nation llamado "Dejen que coman insectos".
40:55 → 40:59
Por si te preguntas qué pasa con tus impuestos,
41:00 → 41:03
Lo están enviando a los científicos para crear una cucaracha más sabrosa.
41:05 → 41:05
Eso está en Fox Nation.
41:05 → 41:07
Volveremos mañana por la noche.
41:07 → 41:09
Que tengas la mejor noche con los que amas,
41:09 → 41:11
y nos vemos en unas 23 horas.
Elon Musk discusses the potential dangers of artificial intelligence and the need for government oversight in a conversation with Tucker Carlson.
This video in English was translated to English, Español, Português on April 18, 2023, using Targum.video AI translation service.
