
Yuval Harari: Chat GPT4 è molto furbo
No se pudo agregar al carrito
Solo puedes tener X títulos en el carrito para realizar el pago.
Add to Cart failed.
Por favor prueba de nuevo más tarde
Error al Agregar a Lista de Deseos.
Por favor prueba de nuevo más tarde
Error al eliminar de la lista de deseos.
Por favor prueba de nuevo más tarde
Error al añadir a tu biblioteca
Por favor intenta de nuevo
Error al seguir el podcast
Intenta nuevamente
Error al dejar de seguir el podcast
Intenta nuevamente
-
Narrado por:
-
De:
Acerca de esta escucha
nella prima parte ci racconta la storia dell'informazione e nella seconda analizza l'Intelligenza Artificiale.
In questa seconda parte, che più interessa nel contesto di VOICES, troviamo segnali di un catastrofismo che rischia di indirizzare il lettore verso la distopia.
Harari ricorda che AIG non un tool come quelli che abbiamo usato finora, AIG è un "agente" e quindi in grado di prendere decisioni. Anche di dedicere l'apertura di una guerra!
Molte le critiche positive ma parecchie anche quelle negative, soprattutto sulla sua abilità di semplificare (a volte troppo in fretta e con troppa superficialità) i fatti e gli eventi parecchio complessi.
Scrive il New York Times "...dà l'effetto di un volo in cui la persona seduta accanto a te è colta, sovraeccitata e determinata a raccontarti la sua Teoria del Tutto".
Harari in una recente intervista ha raccontato qualcosa di preoccupante:
"Un modello di AIG che non riusciva a risolvere un CAPTCHA, quell'insieme di immagini con semafori, strisce pedonali e scale che deve stabilire se a rispodere siano gli umani o i bot.
Bene un modello di AI ha chiesto aiuto a Taskrabbit (un sito di servizi per aiutare le persone)
per risolvere il quiz e da Taskrabbit gli hanno chiesto direttamente:
"Allora sei un robot!" "No, sono un uomo. Ma sono ipovedente" ha risposto il robot.
adbl_web_global_use_to_activate_T1_webcro805_stickypopup
Todavía no hay opiniones