• Yuval Harari: Chat GPT4 è molto furbo

  • 2024/10/08
  • 再生時間: 6 分
  • ポッドキャスト

Yuval Harari: Chat GPT4 è molto furbo

  • サマリー

  • Piccione in copertina e un atteso successo di vendite, Nexus, il nuovo libro di Yuval Noah Harari,
    nella prima parte ci racconta la storia dell'informazione e nella seconda analizza l'Intelligenza Artificiale.
    In questa seconda parte, che più interessa nel contesto di VOICES, troviamo segnali di un catastrofismo che rischia di indirizzare il lettore verso la distopia.
    Harari ricorda che AIG non un tool come quelli che abbiamo usato finora, AIG è un "agente" e quindi in grado di prendere decisioni. Anche di dedicere l'apertura di una guerra!
    Molte le critiche positive ma parecchie anche quelle negative, soprattutto sulla sua abilità di semplificare (a volte troppo in fretta e con troppa superficialità) i fatti e gli eventi parecchio complessi.
    Scrive il New York Times "...dà l'effetto di un volo in cui la persona seduta accanto a te è colta, sovraeccitata e determinata a raccontarti la sua Teoria del Tutto".
    Harari in una recente intervista ha raccontato qualcosa di preoccupante:
    "Un modello di AIG che non riusciva a risolvere un CAPTCHA, quell'insieme di immagini con semafori, strisce pedonali e scale che deve stabilire se a rispodere siano gli umani o i bot.
    Bene un modello di AI ha chiesto aiuto a Taskrabbit (un sito di servizi per aiutare le persone)
    per risolvere il quiz e da Taskrabbit gli hanno chiesto direttamente:
    "Allora sei un robot!" "No, sono un uomo. Ma sono ipovedente" ha risposto il robot.
    続きを読む 一部表示

あらすじ・解説

Piccione in copertina e un atteso successo di vendite, Nexus, il nuovo libro di Yuval Noah Harari,
nella prima parte ci racconta la storia dell'informazione e nella seconda analizza l'Intelligenza Artificiale.
In questa seconda parte, che più interessa nel contesto di VOICES, troviamo segnali di un catastrofismo che rischia di indirizzare il lettore verso la distopia.
Harari ricorda che AIG non un tool come quelli che abbiamo usato finora, AIG è un "agente" e quindi in grado di prendere decisioni. Anche di dedicere l'apertura di una guerra!
Molte le critiche positive ma parecchie anche quelle negative, soprattutto sulla sua abilità di semplificare (a volte troppo in fretta e con troppa superficialità) i fatti e gli eventi parecchio complessi.
Scrive il New York Times "...dà l'effetto di un volo in cui la persona seduta accanto a te è colta, sovraeccitata e determinata a raccontarti la sua Teoria del Tutto".
Harari in una recente intervista ha raccontato qualcosa di preoccupante:
"Un modello di AIG che non riusciva a risolvere un CAPTCHA, quell'insieme di immagini con semafori, strisce pedonali e scale che deve stabilire se a rispodere siano gli umani o i bot.
Bene un modello di AI ha chiesto aiuto a Taskrabbit (un sito di servizi per aiutare le persone)
per risolvere il quiz e da Taskrabbit gli hanno chiesto direttamente:
"Allora sei un robot!" "No, sono un uomo. Ma sono ipovedente" ha risposto il robot.

Yuval Harari: Chat GPT4 è molto furboに寄せられたリスナーの声

カスタマーレビュー:以下のタブを選択することで、他のサイトのレビューをご覧になれます。