En Resumen

  • Vitalik Buterin, creador de Ethereum, reflexionó sobre el "tecnoptimismo" y abordó los riesgos existenciales de la inteligencia artificial (IA).
  • Aunque Buterin comparte la visión positiva de la tecnología, destacó el peligro de una IA superinteligente que pueda causar la extinción humana.
  • Buterin abogó por un enfoque centrado en la seguridad, liderado por un movimiento de código abierto, para guiar el desarrollo de la IA.

El lunes, el creador de Ethereum, Vitalik Buterin, reflexionó sobre su propia visión de "tecnoptimismo", inspirado por Marc Andreessen, quien opinó sobre la IA en su "Manifiesto Tecnoptimista" en octubre. Si bien Buterin estuvo de acuerdo con la perspectiva positiva de Andreessen, también señaló la importancia de cómo se desarrolla la IA y la dirección futura de la tecnología.

Buterin reconoció el riesgo existencial de la inteligencia artificial, incluida la posibilidad de causar la extinción de la raza humana.

"Esta es una afirmación extrema: podrían causar tanto daño como el peor escenario posible del cambio climático, una pandemia artificial o una guerra nuclear, hay muchas islas de civilización que permanecerían intactas para recoger los pedazos", dijo.

"Pero una IA superinteligente, si decide volverse en nuestra contra, podría no dejar sobrevivientes y acabar con la humanidad para siempre", dijo Buterin. "Incluso Marte puede que no sea seguro".

Buterin señaló a una encuesta de AI Impacts realizada en 2022, que indicaba que entre el 5% y el 10% de los participantes creen que los seres humanos enfrentan la extinción debido a la IA o debido a la incapacidad de controlar la IA, respectivamente. Dijo que un movimiento de código abierto centrado en la seguridad es ideal para liderar el desarrollo de la IA en lugar de corporaciones cerradas y propietarias y fondos de capital de riesgo.

"Si queremos un futuro que sea tanto superinteligente como 'humano', donde los seres humanos no sean solo mascotas, sino que realmente conserven una agencia significativa sobre el mundo, entonces parece que algo como esto es la opción más natural", dijo.

Buterin continuó diciendo que lo que se necesita es la intención humana activa para elegir su dirección y resultado. "La fórmula de 'maximizar el beneficio' no los alcanzará automáticamente", dijo.

Buterin agregó que ama la tecnología porque amplía el potencial humano, señalando la historia de innovaciones, desde herramientas manuales hasta teléfonos inteligentes.

"Creo que estas cosas son profundamente buenas y que expandir el alcance de la humanidad aún más hacia los planetas y las estrellas es profundamente bueno, porque creo que la humanidad es profundamente buena", dijo Buterin.

Buterin dijo que si bien cree que la tecnología transformadora conducirá a un futuro más brillante para la humanidad, rechaza la idea de que el mundo debería permanecer como está hoy, solo con menos codicia y más atención médica pública.

"Hay ciertos tipos de tecnología que hacen que el mundo mejore de manera mucho más confiable que otros tipos de tecnología", dijo Buterin. "Hay ciertos tipos de tecnología que podrían, si se desarrollan, mitigar los impactos negativos de otros tipos de tecnología".

Buterin advirtió sobre el aumento del autoritarismo digital y la tecnología de vigilancia utilizada contra aquellos que desafían o disienten contra el gobierno, controlado por un pequeño grupo de tecnócratas. Dijo que la mayoría de las personas preferirían ver una IA altamente avanzada, retrasada una década en lugar de ser monopolizada por un solo grupo.

"Mi miedo básico es que las mismas tecnologías de gestión que permiten a OpenAI atender a más de cien millones de clientes con 500 empleados también permitan a una élite política de 500 personas, o incluso a una junta directiva de 5 personas, mantener un puño de hierro, sobre todo un país", dijo.

Si bien Buterin dijo que simpatiza con el movimiento de aceleración efectiva (también conocido como "e/acc"), tiene sentimientos encontrados sobre su entusiasmo por la tecnología militar.

"El entusiasmo por la tecnología militar moderna como una fuerza para el bien parece requerir creer que el poder tecnológico dominante será confiablemente uno de los buenos en la mayoría de los conflictos, ahora y en el futuro", dijo, citando la idea de que la tecnología militar es buena porque está siendo construida y controlada por Estados Unidos y Estados Unidos es bueno.

"¿Ser un e/acc requiere ser un maximalista de Estados Unidos, apostando todo tanto por la moral presente y futura del gobierno como por el éxito futuro del país?", dijo.

Buterin advirtió contra otorgar "poder extremo y opaco" a un pequeño grupo de personas con la esperanza de que lo utilicen sabiamente, prefiriendo, en cambio, una filosofía de "d/acc", es decir, defensa, descentralización, democracia y diferencial. Según él, esta mentalidad podría adaptarse a altruistas efectivos, libertarios, pluralistas, defensores de blockchain y punks solares y lunares.

"Un mundo que favorece la defensa es un mundo mejor, por muchas razones", dijo Buterin. "En primer lugar, por supuesto, está el beneficio directo de la seguridad: menos personas mueren, se destruye menos valor económico, se pierde menos tiempo en conflictos.

"Sin embargo, lo que se aprecia menos es que un mundo que favorece la defensa facilita que formas de gobierno más saludable, abiertas y respetuosas de la libertad prosperen", concluyó.

Si bien enfatizó la necesidad de construir y acelerar, Buterin dijo que la sociedad debería preguntarse regularmente hacia qué estamos acelerando. Sugirió que el siglo XXI podría ser "el siglo crucial" para la humanidad para decidir el destino de los próximos milenios.

"Estos son problemas desafiantes", dijo Buterin. "Pero espero con ansias observar y participar en el gran esfuerzo colectivo de nuestra especie para encontrar las respuestas".

Editado por Ryan Ozawa.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.