En teoría, ¿podría una IA volverse sensible, como en el aprendizaje y la autoconciencia, todo a partir de su código fuente?
fuente
En teoría, ¿podría una IA volverse sensible, como en el aprendizaje y la autoconciencia, todo a partir de su código fuente?
En teoría, si uno pudiera construir un dispositivo informático que igualara o excediera las capacidades cognitivas de un ser sensible, debería ser posible.
(Los partidarios de Singlarity creen que algún día podremos transferir la mente humana a una plataforma de computación artificial, y lógicamente se deduce que uno podría "piratear" tal mente, o construir desde cero, para crear una verdadera Inteligencia Artificial).
Pero esto puede ser como el poder de fusión, donde el viejo adagio es que "siempre está a 20 años de distancia".
Sentience es otro término de IA sin una definición estándar. Puede significar que el sistema tiene información sensorial, que tiene emoción o que forma una opinión subjetiva sobre lo que siente. Ninguno de estos requiere ningún tipo de elementos no causales o metafísicos, por lo que los límites imaginados para la IA por aquellos que proponen que la IA nunca tendrá libre albedrío o un alma no se aplican realmente.
Si la IA tiene información sensorial es una función del diseño total del sistema. AI ya tiene información sensorial en varios productos que trabajan en su campo hoy.
Es probable que la IA tenga emoción, ya que la emoción es un estado más general que afecta a muchas neuronas y tiene cierto impulso (ya que se basa en la secreción química, el agonismo, el antagonismo, la absorción y el metabolismo) y tales características de diseño probablemente entrarán en juego. Caja de herramientas AI.
Si la IA formará opiniones subjetivas dependerá de cuán profundamente se realizará la cognición en las computadoras. Algunos creen que al agregar profundidad a las redes artificiales y los diferentes diseños de interconexión de ellas, la cognición se realizará en esas redes. Otros (incluidos algunos miembros aquí) son defensores de la lógica difusa como la mejor opción para la cognición.
La autoconciencia no es lo mismo que la percepción, aunque está relacionada. Si la visión de la computadora apunta a la computadora y se reconoce a sí misma, entonces es consciente de sí misma a nivel sensorial. Si a una computadora le gusta o se pone triste porque no tiene un cuerpo de robot para poder ir de compras, entonces eso es autoconciencia a nivel emocional y cognitivo.
Aunque no hay pruebas de que estas cosas de nivel superior se puedan lograr, aún no se ha descubierto una razón teórica para dudar de su desarrollo potencial.
Sí , un programa de IA puede volverse sensible. Ray Kurzweil, mientras daba una conferencia en la Singularity University sobre The Accelerating Future, afirmó que el cuerpo humano está compuesto básicamente por aproximadamente 23,000 pequeños programas de software llamados GENES . Si lo piensas bien, en realidad son programas, compuestos de secuencias de datos. No están escritos en C ++ o Java, sino que usan la interacción de proteínas 3-D . Evolucionan con el tiempo y su evolución es la razón por la cual las especies pueden sobrevivir incluso cuando su entorno experimenta cambios trágicos.
Estamos al borde de un avance en el que el software podrá hacer lo mismo (evolucionando por sí mismos) de manera eficiente. Hoy esto se hace en un nivel básico. La red neuronal artificial es un buen ejemplo.
Se predice que podremos realizar ingeniería inversa del cerebro humano para 2029. Antes de esto, podremos escribir códigos que puedan estimular el cerebro humano.
Los programas de IA se pueden clasificar en tres: