martes, 20 de junio de 2006

Lenny

La empresa Robots y Hombres Mecánicos de Estados Unidos tenía un problema. El problema era la gente.
Peter Bogert, jefe de matemática, se dirigía a la sala de montaje cuando se topó con Alfred Lanning, director de investigaciones. Lanning, apoyado en el pasamanos, miraba a la sala de ordenadores enarcando sus enérgicas cejas blancas.
En el piso de abajo, un grupo de humanos de ambos sexos y diversas edades miraba en torno con curiosidad, mientras un guía entonaba un discurso preestablecido sobre informática robótica:
—Este ordenador que ven es el mayor de su tipo en el mundo. Contiene cinco millones trescientos mil criotrones y es capaz de manipular simultáneamente más de cien mil variables. Con su ayuda, nuestra empresa puede diseñar con precisión el cerebro positrónico de los modelos nuevos. Los requisitos se consignan en una cinta que se perfora mediante la acción de este teclado, algo similar a una máquina de escribir o una linotipia muy complicada, excepto que no maneja letras, sino conceptos. Las proposiciones se descomponen en sus equivalentes lógico-simbólicos y éstos a su vez son convertidos en patrones de perforación. En menos de una hora, el ordenador puede presentar a nuestros científicos el diseño de un cerebro que ofrecerá todas las sendas positrónicas necesarias para fabricar un robot...
Alfred Lanning reparó en la presencia del otro.
—Ah, Peter.
Bogert se alisó el cabello negro y lustroso con ambas manos, aunque lo tenía impecable.
—No pareces muy entusiasmado con esto, Alfred.
Lanning gruñó. La idea de realizar visitas turísticas por toda la empresa era reciente y se suponía cumplía una doble función. Por una parte, según se afirmaba, permitía que la gente viera a los robots de cerca y acallara así su temor casi instintivo hacia los objetos mecánicos mediante una creciente familiaridad. Por otra parte, se suponía que las visitas lograrían generar un interés para que algunas personas se dedicaran a las investigaciones robóticas.
—Sabes que no lo estoy. Una vez por semana, nuestra tarea se complica. Considerando las horas-hombre que se pierden, la retribución es insuficiente.
—Entonces, ¿no han subido aún las solicitudes de empleo?
—Un poco, pero sólo en las categorías donde esa necesidad no es vital. Necesitamos investigadores, ya lo sabes. Pero, como los robots están prohibidos en la Tierra, el trabajo de robotista no es muy popular, que digamos.
—El maldito complejo de Frankenstein —comentó Bogert, repitiendo a sabiendas una de las frases favoritas de Lanning.
Lanning pasó por alto esa burla afectuosa.
—Debería acostumbrarme, pero no lo consigo. Todo ser humano de la Tierra tendría que saber ya que las Tres Leyes constituyen una salvaguardia perfecta, que los robots no son peligrosos. Fíjate en ese grupo. —Miró hacia abajo—. Obsérvalos. La mayoría recorren la sala de montaje de robots por la excitación del miedo, como si subieran en una montaña rusa. Y cuando entran en la sala del modelo MEC..., demonios, Peter, un modelo MEC que es incapaz de hacer otra cosa que avanzar dos pasos, decir «mucho gusto en conocerle», dar la mano y retroceder dos pasos; y, sin embargo, todos se intimidan y las madres abrazan a sus hijos. ¿Cómo vamos a obtener trabajadores que piensen a partir de esos idiotas?
Bogert no tenía respuesta. Miraron una vez más a los visitantes, que estaban pasando de la sala de informática al sector de montaje de cerebros positrónicos. Luego, se marcharon. No vieron a Mortimer W. Jacobson, de dieciséis años, quien, para ser justos, no tenía la intención de causar el menor daño.

En realidad, ni siquiera podría decirse que la culpa fuera de Mortimer. Todos los trabajadores sabían en qué día de la semana se realizaban las visitas. Todos los aparatos debían estar neutralizados o cerrados, pues no era razonable esperar que los seres humanos resistieran la tentación de mover interruptores, llaves y manivelas y de pulsar botones. Además, el guía debía vigilar atentamente a quienes sucumbieran a esa tentación.
Pero en ese momento el guía había entrado en la sala contigua y Mortimer iba al final de la fila. Pasó ante el teclado mediante el cual se introducían datos en el ordenador. No tenía modo de saber que en aquel instante se estaban introduciendo los planos para un nuevo diseño robótico; de lo contrario, siendo como era un buen chico, habría evitado tocar el teclado. No tenía modo de saber que -en un acto de negligencia casi criminal- un técnico se había olvidado de desactivar el teclado.
Así que Mortimer tocó las teclas al azar, como si se tratara de un instrumento musical.
No notó que un trozo de la cinta perforada se salía de un aparato que había en otra parte de la sala, silenciosa e inadvertidamente.
Y el técnico, cuando volvió, tampoco notó ninguna intromisión. Le llamó la atención que el teclado estuviera activado, pero no se molestó en verificarlo. Al cabo de unos minutos, incluso esa leve inquietud se le había pasado, y continuó introduciendo datos en el ordenador.
En cuanto a Mortimer, nunca supo lo que había hecho.

El nuevo modelo LNE estaba diseñado para extraer boro en las minas del cinturón de asteroides. Los hidruros de boro cobraban cada vez más valor como detonantes para las micropilas protónicas que generaban potencia a bordo de las naves espaciales, y la magra provisión existente en la Tierra se estaba agotando.
Eso significaba que los robots LNE tendrían que estar equipados con ojos sensibles a esas líneas prominentes en el análisis espectroscópico de los filones de boro y con un tipo de extremidades útiles para transformar el mineral en el producto terminado. Como de costumbre, sin embargo, el equipamiento mental constituía el mayor problema.
El primer cerebro positrónico LNE ya estaba terminado. Era el prototipo y pasaría a integrar la colección de prototipos de la compañía. Cuando lo hubieran probado, fabricarían otros para alquilarlos (nunca venderlos) a empresas mineras.
El prototipo LNE estaba terminado. Alto, erguido y reluciente, parecía por fuera como muchos otros robots no especializados.
Los técnicos, guiándose por las instrucciones del Manual de Robótica, debían preguntar: «¿Cómo estás?»
La respuesta correspondiente era: «Estoy bien y dispuesto a activar mis funciones. Confío en que tú también estés bien», o alguna otra ligera variante.
Ese primer diálogo sólo servía para indicar que el robot oía, comprendía una pregunta rutinaria y daba una respuesta rutinaria congruente con lo que uno esperaría de una mentalidad robótica. A partir de ahí era posible pasar a asuntos más complejos, que pondrían a prueba las tres Leyes y su interacción con el conocimiento especializado de cada modelo.
Así que el técnico preguntó «¿cómo estás?» y, de inmediato, se sobresaltó ante la voz del prototipo LNE. Era distinta de todas las voces de robot que conocía (y había oído muchas). Formaba sílabas semejantes a los tañidos de una celesta de baja modulación.
Tan sorprendente era la voz que el técnico sólo oyó retrospectivamente, al cabo de unos segundos, las sílabas que había formado esa voz maravillosa:
—Da, da, da, gu.
El robot permanecía alto y erguido, pero alzó la mano derecha y se metió un dedo en la boca.
El técnico lo miró horrorizado y echó a correr. Cerró la puerta con llave y, desde otra sala, hizo una llamada de emergencia a la doctora Susan Calvin.

La doctora Susan Calvin era la única robopsicóloga de la compañía (y prácticamente de toda la humanidad). No tuvo que avanzar mucho en sus análisis del prototipo LNE para pedir perentoriamente una transcripción de los planos del cerebro positrónico dibujados por ordenador y las instrucciones que los habían guiado. Tras estudiarlos mandó a buscar a Bogert.
La doctora tenía el cabello gris peinado severamente hacia atrás; y su rostro frío, con fuertes arrugas verticales interrumpidas por el corte horizontal de una pálida boca de labios finos, se volvió enérgicamente hacia Bogert.
—¿Qué es esto, Peter?
Bogert estudió con creciente estupefacción los pasajes que ella señalaba.
—Por Dios, Susan, no tiene sentido.
—Claro que no. ¿Cómo se llegó a estas instrucciones?
Llamaron al técnico encargado y él juró con toda sinceridad que no era obra suya y que no podía explicarlo. El ordenador dio una respuesta negativa a todos los intentos de búsqueda de fallos.
—El cerebro positrónico no tiene remedio —comentó pensativamente Susan Calvin—. Estas instrucciones insensatas han cancelado tantas funciones superiores que el resultado se asemeja a un bebé humano. —Bogert manifestó asombro, y Susan Calvin adoptó la actitud glacial que siempre adoptaba ante la menor insinuación de duda de su palabra—. Nos esforzamos en lograr que un robot se parezca mentalmente a un hombre. Si eliminamos lo que denominamos funciones adultas, lo que queda, como es lógico, es un bebé humano, mentalmente hablando. ¿Por qué estás tan sorprendido, Peter?
El prototipo LNE, que no parecía darse cuenta de lo que ocurría a su alrededor, se sentó y empezó a examinarse los pies.
Bogert lo miró fijamente.
—Es una lástima desmantelar a esa criatura. Es un bonito trabajo.
—¿Desmantelarla? —bramó la robopsicóloga.
—Desde luego, Susan. ¿De qué sirve esa cosa? Santo cielo, si existe un objeto totalmente inútil es un robot que no puede realizar ninguna tarea. No pretenderás que esta cosa pueda hacer algo, ¿verdad?
—No, claro que no.
—¿Entonces?
—Quiero realizar más análisis —dijo tercamente Susan Calvin.
Bogert la miró con impaciencia, pero se encogió de hombros. Si había una persona en toda la empresa con quien no tenía sentido discutir, ésa era Susan Calvin. Los robots eran su pasión, y se hubiera dicho que una tan larga asociación con ellos la había privado de toda apariencia de humanidad.
Era imposible disuadirla de una decisión, así como era imposible disuadir a una micropila activada de que funcionara.
—¡Qué más da! —murmuró, y añadió en voz alta—: ¿Nos informarás cuando hayas terminado los análisis?
—Lo haré. Ven, Lenny.
(LNE, pensó Bogert. Inevitablemente, las siglas se habían transformado en Lenny.)
Susan Calvin tendió la mano, pero el robot se limitó a mirarla. Con ternura, la robopsicóloga tomó la mano del robot. Lenny se puso de pie (al menos su coordinación mecánica funcionaba bien) y salieron juntos, el robot y esa mujer a quien superaba en medio metro. Muchos ojos los siguieron con curiosidad por los largos corredores.
Una pared del laboratorio de Susan Calvin, la que daba directamente a su despacho privado, estaba cubierta con la reproducción ampliada de un diagrama de sendas positrónicas. Hacía casi un mes que Susan Calvin la estudiaba concentradamente.
Estaba examinando atentamente en ese momento los vericuetos de esas sendas atrofiadas. Lenny, sentado en el suelo, movía las piernas y balbuceaba sílabas ininteligibles con una voz tan bella que era posible escucharlas con embeleso aun sin entenderlas.
Susan Calvin se volvió hacia el robot.
—Lenny... Lenny...
Repitió el nombre, con paciencia, hasta que Lenny irguió la cabeza y emitió un sonido inquisitivo. La robopsicóloga sonrió complacida. Cada vez necesitaba menos tiempo para atraer la atención del robot.
—Alza la mano, Lenny. Mano... arriba. Mano... arriba.
La doctora levantó su propia mano una y otra vez.
Lenny siguió el movimiento con los ojos. Arriba, abajo, arriba, abajo. Luego, movió la mano espasmódicamente y balbuceó.
—Muy bien, Lenny —dijo gravemente Susan Calvin—. Inténtalo de nuevo. Mano... arriba.
Muy suavemente, extendió su mano, tomó la del robot, la levantó y la bajó.
—Mano... arriba. Mano... arriba.
Una voz la llamó desde el despacho:
—¿Susan?
Calvin apretó los labios.
—¿Qué ocurre, Alfred?
El director de investigaciones entró, miró al diagrama de la pared y, luego, al robot.
—¿Sigues con ello?
—Estoy trabajando, sí.
—Bien, ya sabes, Susan... —Sacó un puro y lo miró, disponiéndose a morder la punta. Cuando se encontró con la severa y reprobatoria mirada de la mujer, guardó el puro y comenzó de nuevo—: Bien, ya sabes, Susan, que el modelo LNE está en producción.
—Eso he oído. ¿Hay algo en que yo pueda colaborar?
—No. Pero el mero hecho de que esté en producción y funcione bien significa que es inútil insistir con este espécimen deteriorado. ¿No deberíamos desarmarlo?
—En pocas palabras, Alfred, te fastidia que yo pierda mi valioso tiempo. Tranquilízate. No estoy perdiendo el tiempo. Estoy trabajando con este robot.
—Pero ese trabajo no tiene sentido.
—Yo seré quien lo juzgue, Alfred —replicó la doctora en un tono amenazador, y Lanning consideró que sería más prudente cambiar de enfoque.
—¿Puedes explicarme qué significa? ¿Qué estás haciendo ahora, por ejemplo?
—Trato de lograr que levante la mano cuando se lo ordeno. Intento conseguir que imite el sonido de la palabra.
Como si estuviera pendiente de ella, Lenny balbuceó y alzó la mano torpemente. Lanning sacudió la cabeza.
—Esa voz es asombrosa. ¿Cómo se ha logrado?
—No lo sé. El transmisor es normal. Estoy segura de que podría hablar normalmente, pero no lo hace. Habla así como consecuencia de algo que hay en las sendas positrónicas, y aún no lo he localizado.
—Bien, pues localízalo, por Dios. Esa voz podría ser útil.
—Oh, entonces, ¿mis estudios sobre Lenny pueden servir de algo?
Lanning se encogió de hombros, avergonzado.
—Bueno, se trata de un elemento menor.
—Lamento que no veas los elementos mayores, que son mucho más importantes, pero no es culpa mía. Ahora, Alfred, ¿quieres irte y dejarme trabajar?

Lanning encendió el puro en el despacho de Bogert.
—Esa mujer está cada día más rara —comentó con resentimiento.
Bogert le entendió perfectamente. En Robots y Hombres Mecánicos existía una sola «esa mujer».
—¿Todavía sigue atareada con ese seudorobot, con ese Lenny?
—Trata de hacerle hablar, lo juro. Bogert se encogió de hombros.
—Ese es el problema de esta empresa. Me refiero a lo de conseguir investigadores capacitados. Si tuviéramos otros robopsicólogos, podríamos jubilar a Susan. A propósito, supongo que la reunión dé directores programada para mañana tiene que ver con el problema de la contratación de personal.
Lanning asintió con la cabeza y miró su puro, disgustado.
—Sí. Pero el problema es la calidad, no la cantidad. Hemos subido tanto los sueldos que hay muchos solicitantes; pero la mayoría se interesan sólo por el dinero. El truco está en conseguir a los que se interesan por la robótica; gente como Susan Calvin.
—No, diablos, como ella no.
—Iguales no, de acuerdo. Pero tendrás que admitir, Peter, que es una apasionada de los robots. No tiene otro interés en la vida.
—Lo sé. Precisamente por eso es tan insoportable. Lanning asintió en silencio. Había perdido la cuenta de las veces que habría deseado despedir a Susan Calvin. También había perdido la cuenta de la cantidad de millones de dólares que ella le había ahorrado a la empresa. Era indispensable y seguiría siéndolo hasta su muerte, o hasta que pudieran solucionar el problema de encontrar gente del mismo calibre y que se interesara en las investigaciones sobre robótica.
—Creo que vamos a limitar esas visitas turísticas. Peter se encogió de hombros.
—Si tú lo dices... Pero entre tanto, en serio, ¿qué hacemos con Susan? Es capaz de apegarse indefinidamente a Lenny. Ya sabes cómo es cuando se encuentra con lo que considera un problema interesante.
—¿Qué podemos hacer? Si demostramos demasiada ansiedad por interrumpirla, insistirá en ello por puro empecinamiento femenino. En última instancia, no podemos obligarla a hacer nada.
El matemático sonrió.
—Yo no aplicaría el adjetivo «femenino» a ninguna parte de ella.
—Está bien —rezongó Lanning—. Al menos, ese robot no le hará daño a nadie.
En eso se equivocaba.

La señal de emergencia siempre causa nerviosismo en cualquier gran instalación industrial. Esas señales habían sonado varias veces a lo largo de la historia de Robots y Hombres Mecánicos: incendios, inundaciones, disturbios e insurrecciones.
Pero una señal no había sonado nunca. Nunca había sonado la señal de «robot fuera de control». Y nadie esperaba que sonara. Estaba instalada únicamente por insistencia del Gobierno. («Al demonio con ese complejo de Frankenstein», mascullaba Lanning en las raras ocasiones en que pensaba en ello.)
Pero la estridente sirena empezó a ulular con intervalos de diez segundos, y prácticamente nadie -desde el presidente de la junta de directores hasta el más novato ayudante de ordenanza- reconoció de inmediato ese sonido insólito. Tras esa incertidumbre inicial, guardias armados y médicos convergieron masivamente en la zona de peligro, y la empresa al completo quedó paralizada.
Charles Randow, técnico en informática, fue trasladado al sector hospitalario con el brazo roto. No hubo más daños. Al menos, no hubo más daños físicos.
—¡Pero el daño moral está más allá de toda estimación! —vociferó Lanning.
Susan Calvin se enfrentó a él con calma mortal.
—No le harás nada a Lenny. Nada. ¿Entiendes?
—¿Lo entiendes tú, Susan? Esa cosa ha herido a un ser humano. Ha quebrantado la Primera Ley. ¿No conoces la Primera Ley?
—No le harás nada a Lenny.
—Por amor de Dios, Susan, ¿a ti debo explicarte la Primera Ley? Un robot no puede dañar a un ser humano ni, mediante la inacción, permitir que un ser humano sufra daños. Nuestra posición depende del estricto respeto de esa Primera Ley por parte de todos los robots de todos los tipos. Si el público se entera de que ha habido una excepción, una sola excepción, podría obligamos a cerrar la empresa. Nuestra única probabilidad de supervivencia sería anunciar de inmediato que ese robot ha sido destruido, explicar las circunstancias y rezar para que el público se convenza de que no sucederá de nuevo.
—Me gustaría averiguar qué sucedió. Yo no estaba presente en ese momento y me gustaría averiguar qué hacía Randow en mis laboratorios sin mi autorización.
—Pero lo más importante es obvio. Tu robot golpeó a Randow, ese imbécil apretó el botón de «robot fuera de control» y nos ha creado un problema. Pero tu robot lo golpeó y le causó lesiones que incluyen un brazo roto. La verdad es que tu Lenny está tan deformado que no respeta la Primera Ley y hay que destruirlo.
—Sí que respeta la Primera Ley. He estudiado sus sendas cerebrales y sé que la respeta.
—Y entonces, ¿cómo ha podido golpear a un hombre? —preguntó Lanning, con desesperado sarcasmo—. Pregúntaselo a Lenny. Sin duda ya le habrás enseñado a hablar.
Susan Calvin se ruborizó.
—Prefiero entrevistar a la víctima. Y en mi ausencia, Alfred, quiero que mis dependencias estén bien cerradas, con Lenny en el interior. No quiero que nadie se le acerque. Si sufre algún daño mientras yo no estoy, esta empresa no volverá a saber de mí en ninguna circunstancia.
—¿Aprobarás su destrucción si ha violado la Primera Ley?
—Sí, porque sé que no la ha violado.

Charles Randow estaba tendido en la cama, con el brazo en cabestrillo. Aún estaba conmocionado por ese momento en que creyó que un robot se le abalanzaba con la intención de asesinarlo. Ningún ser humano había tenido nunca razones tan contundentes para temer que un robot le causara daño. Era una experiencia singular.
Susan Calvin y Alfred Lanning estaban junto a la cama; los acompañaba Peter Bogert, que se había encontrado con ellos por el camino. No estaban presentes médicos ni enfermeras.
—¿Qué sucedió? —preguntó Susan Calvin. Randow no las tenía todas consigo.
—Esa cosa me pegó en el brazo —murmuró—. Se abalanzó sobre mí.
—Comienza desde más atrás —dijo Calvin—. ¿Qué hacías en mi laboratorio sin mi autorización?
El joven técnico en informática tragó saliva, moviendo visiblemente la nuez de la garganta. Tenía pómulos altos y estaba muy pálido.
—Todos sabíamos lo de ese robot. Se rumoreaba que trataba usted de enseñarle a hablar como si fuera un instrumento musical. Circulaban apuestas acerca de si hablaba o no. Algunos sostienen que usted puede enseñarle a hablar a un poste.
—Supongo que eso es un cumplido —comentó Susan Calvin en un tono glacial—. ¿Qué tenía que ver eso contigo?
—Yo debía entrar allí para zanjar la cuestión, para enterarme de si hablaba, ya me entiende. Robamos una llave de su laboratorio y esperamos a que usted se fuera. Echamos a suertes para ver quién entraba. Perdí yo.
—¿Y qué más?
—Intenté hacerle hablar y me pegó.
—¿Cómo intentaste hacerle hablar?
—Le..., le hice preguntas, pero no decía nada y tuve que sacudirlo, así que... le grité... y...
—¿Y?
Hubo una larga pausa. Bajo la mirada imperturbable de Susan Calvin, Randow dijo al fin:
—Traté de asustarlo para que dijera algo. Tenía que impresionarlo.
—¿Cómo intentaste asustarlo?
—Fingí que le iba a dar un golpe.
—¿Y te desvió el brazo?
—Me dio un golpe en el brazo.
—Muy bien. Eso es todo. —Calvin se volvió hacia Lanning y Bogert—. Vámonos, caballeros.
En la puerta, se giró hacia Randow.
—Puedo resolver el problema de las apuestas, si aún te interesa. Lenny articula muy bien algunas palabras.

No dijeron nada hasta llegar al despacho de Susan Calvin. Las paredes estaban revestidas de libros; algunos, de su autoría. El despacho reflejaba su personalidad fría y ordenada. Había una sola silla. Susan se sentó. Lanning y Bogert permanecieron de pie.
—Lenny se limitó a defenderse. Es la Tercera Ley: un robot debe proteger su propia existencia.
—Excepto —objetó Lanning— cuando entra en conflicto con la Primera o con la Segunda Ley. ¡Completa el enunciado! Lenny no tenía derecho a defenderse causando un daño, por ínfimo que fuera, a un ser humano.
—No lo hizo a sabiendas —replicó Calvin—. Lenny tiene un cerebro fallido. No tenía modo de conocer su propia fuerza ni la debilidad de los humanos. Al apartar el brazo amenazador de un ser humano, no podía saber que el hueso se rompería. Humanamente, no se puede achacar culpa moral a un individuo que no sabe diferenciar entre el bien y el mal.
Bogert intervino en tono tranquilizador:
—Vamos, Susan, nosotros no achacamos culpas. Nosotros comprendemos que Lenny es el equivalente de un bebé, humanamente hablando, y no lo culpamos. Pero el público sí lo hará. Nos cerrarán la empresa.
—Todo lo contrario. Si tuvieras el cerebro de una pulga, Peter, verías que ésta es la oportunidad que la compañía esperaba. Esto resolverá sus problemas.
Lanning frunció sus cejas blancas.
—¿Qué problemas, Susan?
—¿Acaso la empresa no desea mantener a nuestro personal de investigación en lo que considera, Dios nos guarde, su avanzado nivel actual?
—Por supuesto.
—Bien, y ¿qué ofreces a tus futuros investigadores? ¿Diversión? ¿Novedad? ¿La emoción de explorar lo desconocido? No. Les ofreces sueldos y la garantía de que no habrá problemas.
—¿Qué quieres decir? — se interesó Bogert.
—¿Hay problemas? —prosiguió Susan Calvin—. ¿Qué clase de robots producimos? Robots plenamente desarrollados, aptos para sus tareas. Una industria nos explica qué necesita; un ordenador diseña el cerebro; las máquinas dan forma al robot; y ya está, listo y terminado. Peter, hace un tiempo me preguntaste cuál era la utilidad de Lenny. Preguntas que de qué sirve un robot que no está diseñado para ninguna tarea. Ahora te pregunto yo que ¿de qué sirve un robot diseñado para una sola tarea? Comienza y termina en el mismo lugar. Los modelos LNE extraen boro; si se necesita berilio, son inútiles; si la tecnología del boro entra en una nueva fase, se vuelven obsoletos. Un ser humano diseñado de ese modo sería un subhumano. Un robot diseñado de ese modo es un subrobot.
—¿Quieres un robot versátil? —preguntó incrédulamente Lanning.
—¿Por qué no? ¿Por qué no? He estado trabajando con un robot cuyo cerebro estaba casi totalmente idiotizado. Le estaba enseñando y tú, Alfred, me preguntaste que para qué servía. Para muy poco, tal vez, en b concerniente a Lenny, pues nunca superará el nivel de un niño humano de cinco años. ¿Pero cuál es la utilidad general? Enorme, si abordas el asunto como un estudio del problema abstracto de aprender a enseñar a los robots. Yo he aprendido modos de poner ciertas sendas en cortocircuito para crear sendas nuevas. Los nuevos estudios ofrecerán técnicas mejores, más sutiles y más eficientes para hacer lo mismo.
—¿Y bien?
—Supongamos que tomas un cerebro positrónico donde estuvieran trazadas las sendas básicas, pero no las secundarias. Supongamos que luego creas las secundarias. Podrías vender robots básicos diseñados para ser instruidos, robots capaces de adaptarse a diversas tareas. Los robots serían tan versátiles como los seres humanos. ¡Los robots podrían aprender! —La miraron de hito en hito. La robopsicóloga se impacientó—: Aún no lo entendéis, ¿verdad?
—Entiendo lo que dices —dijo Lanning.
—¿No entendéis que ante un campo de investigación totalmente nuevo, unas técnicas totalmente nuevas a desarrollar, un área totalmente nueva y desconocida para explorar, los jóvenes sentirán mayor entusiasmo por la robótica? Intentadlo y ya veréis.
—¿Puedo señalar que esto es peligroso?—intervino Bogert—. Comenzar con robots ignorantes como Lenny significará que nunca podremos confiar en la Primera Ley, tal como ha ocurrido en el caso de Lenny.
—Exacto. Haz público ese dato.
—¿Hacerlo público?
—Desde luego. Haz conocer el peligro. Explica que instalarás un nuevo Instituto de investigaciones en la Luna, si la población terrícola prefiere que estos trabajos no se realicen en la Tierra, pero haz hincapié en el peligro que correrían los posibles candidatos.
—¿Por qué, por amor de Dios? —quiso saber Lanning.
—Porque el conocimiento del peligro le añadirá un nuevo atractivo al asunto. ¿Crees que la tecnología nuclear no implica peligro, que la espacionáutica no entraña riesgos? ¿Tu oferta de absoluta seguridad te ha servido de algo? ¿Te ha ayudado a enfrentarte a ese complejo de Frankenstein que tanto desprecias? Pues prueba otra cosa, algo que haya funcionado en otras áreas.
Sonó un ruido al otro lado de la puerta que conducía a los laboratorios personales de Calvin. Era el sonido de campanas de la voz de Lenny. La robopsicóloga guardó silencio y escuchó:
—Excusadme —dijo—. Creo que Lenny me llama.
—¿Puede llamarte? —se sorprendió Lanning.
—Ya os he dicho que logré enseñarle algunas palabras. —Se dirigió hacia la puerta, con cierto nerviosismo—. Si queréis esperarme...
Los dos hombres la miraron mientras salía y se quedaron callados durante un rato.
—¿Crees que tiene razón, Peter? —preguntó finalmente Lanning.
—Es posible, Alfred, es posible. La suficiente como para que planteemos el asunto en la reunión de directores y veamos qué opinan. A fin de cuentas, la cosa ya no tiene remedio. Un robot ha dañado a un ser humano y es de público conocimiento. Como dice Susan, podríamos tratar de volcar el asunto a nuestro favor. Pero desconfío de los motivos de ella.
—¿En qué sentido?
—Aunque haya dicho la verdad, en su caso es una mera racionalización. Su motivación es su deseo de no abandonar a ese robot. Si insistiéramos, pretextaría que desea continuar aprendiendo técnicas para enseñar a los robots; pero creo que ha hallado otra utilidad para Lenny, una utilidad tan singular que no congeniaría con otra mujer que no fuera ella.
—No te entiendo.
—¿No oíste cómo la llamó el robot?
—Pues no... —murmuró Lanning, y entonces la puerta se abrió de golpe y ambos se callaron.
Susan Calvin entró y miró a su alrededor con incertidumbre.
—¿Habéis visto...? Estoy segura de que estaba por aquí... Oh, ahí está.
Corrió hacia el extremo de un anaquel y cogió un objeto hueco y de malla metálica, con forma de pesa de gimnasia. La malla metálica contenía piezas de metal de diversas formas.
Las piezas de metal se entrechocaron con un grato campanilleo. Lanning pensó que el objeto parecía una versión robótica de un sonajero para bebés.
Cuando Susan Calvin abrió la puerta para salir, Lenny la llamó de nuevo. Esa vez, Lanning oyó claramente las palabras que Susan Calvin le había enseñado. Con melodiosa voz de celesta, repetía:
—Mami, te quiero. Mami, te quiero.
Y se oyeron los pasos de Susan Calvin apresurándose por el laboratorio para ir a atender a la única clase de niño que ella podía tener y amar.
Isaac Asimov

No hay comentarios: