Un ejecutivo de una importante empresa tecnológica acaba de lanzar algo interesante—están dispuestos a poner freno al desarrollo de la IA si las cosas se vuelven peligrosas. Mustafa Suleyman, quien lidera la división de IA para consumidores, básicamente dijo que no seguirán avanzando con sistemas de IA que potencialmente puedan liberarse del control humano. Es el tipo de declaración que te hace pensar en los mecanismos de control y dónde trazamos la línea entre innovación y seguridad. Si realmente se traduce en acción, es otra historia, pero al menos la conversación está ocurriendo a gran escala.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
17 me gusta
Recompensa
17
3
Republicar
Compartir
Comentar
0/400
ChainBrain
· 12-12 18:17
La apariencia es bonita, pero simplemente no puedo creerlo.
Ver originalesResponder0
LightningHarvester
· 12-12 18:13
Decirlo de manera bonita, ¿pero en el momento crucial no estarás echando la culpa? Ya me he cansado de escuchar esas palabras.
Ver originalesResponder0
BlockDetective
· 12-12 17:50
Solo palabras bonitas, hablemos en serio cuando realmente pises el freno
Un ejecutivo de una importante empresa tecnológica acaba de lanzar algo interesante—están dispuestos a poner freno al desarrollo de la IA si las cosas se vuelven peligrosas. Mustafa Suleyman, quien lidera la división de IA para consumidores, básicamente dijo que no seguirán avanzando con sistemas de IA que potencialmente puedan liberarse del control humano. Es el tipo de declaración que te hace pensar en los mecanismos de control y dónde trazamos la línea entre innovación y seguridad. Si realmente se traduce en acción, es otra historia, pero al menos la conversación está ocurriendo a gran escala.