{"id":58167,"date":"2023-02-21T22:52:20","date_gmt":"2023-02-21T21:52:20","guid":{"rendered":"https:\/\/www.alground.com\/site\/?p=58167"},"modified":"2024-07-28T13:45:16","modified_gmt":"2024-07-28T12:45:16","slug":"intelligenza-artificiale-storia-e-futuro","status":"publish","type":"post","link":"https:\/\/alground.com\/site\/intelligenza-artificiale-storia-e-futuro\/58167\/","title":{"rendered":"Intelligenza Artificiale storia e futuro"},"content":{"rendered":"<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Punti chiave<\/p>\n<label for=\"ez-toc-cssicon-toggle-item-69f7005645ca1\" class=\"ez-toc-cssicon-toggle-label\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/label><input type=\"checkbox\"  id=\"ez-toc-cssicon-toggle-item-69f7005645ca1\"  aria-label=\"Toggle\" \/><nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/alground.com\/site\/intelligenza-artificiale-storia-e-futuro\/58167\/#La_Nascita_dellAI\" >La Nascita dell&#8217;AI<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/alground.com\/site\/intelligenza-artificiale-storia-e-futuro\/58167\/#Gli_alti_e_bassi_dellIA\" >Gli alti e bassi dell&#8217;IA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/alground.com\/site\/intelligenza-artificiale-storia-e-futuro\/58167\/#Gli_sviluppi_dellIntelligenza_Artificiale\" >Gli sviluppi dell&#8217;Intelligenza Artificiale<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/alground.com\/site\/intelligenza-artificiale-storia-e-futuro\/58167\/#Il_futuro_dellIntelligenza_Artificiale\" >Il futuro dell&#8217;Intelligenza Artificiale<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/alground.com\/site\/intelligenza-artificiale-storia-e-futuro\/58167\/#Conclusioni\" >Conclusioni<\/a><\/li><\/ul><\/nav><\/div>\n\n<p>L&#8217;Intelligenza Artificiale pu\u00f2 essere classificata in IA analitica, ispirata all&#8217;essere umano e umanizzata a seconda dei tipi di intelligenza che esprime, intelligenza cognitiva, emotiva e sociale o in intelligenza artificiale ristretta, generale e super a seconda del suo stadio evolutivo. <\/p>\n\n\n\n<p>Tuttavia, ci\u00f2 che tutti questi tipi hanno in comune \u00e8 che quando l&#8217;IA raggiunge un uso diffuso, spesso non viene pi\u00f9 considerata come tale. Questo fenomeno \u00e8 descritto come l&#8217;effetto IA, <strong>che si verifica quando gli osservatori svalutano il comportamento di un programma IA<\/strong> sostenendo che non si tratta di vera intelligenza. Come disse una volta lo scrittore di fantascienza britannico Arthur Clarke: &#8220;<em>Ogni tecnologia sufficientemente avanzata \u00e8 indistinguibile dalla magia<\/em>&#8220;. Tuttavia, quando si comprende la tecnologia, la magia scompare. <\/p>\n\n\n\n<p>A intervalli regolari fin dagli anni &#8217;50, gli esperti hanno previsto che ci vorranno solo pochi anni prima di raggiungere l&#8217;<strong>Intelligenza Artificiale Generale<\/strong> &#8211; sistemi che mostrano un comportamento indistinguibile da quello umano in tutti gli aspetti e che hanno intelligenza cognitiva, emotiva e sociale. Solo il tempo dir\u00e0 se ci\u00f2 accadr\u00e0 effettivamente. Ma per comprendere meglio ci\u00f2 che \u00e8 fattibile, \u00e8 possibile guardare all&#8217;IA da due angolazioni: la strada gi\u00e0 percorsa e ci\u00f2 che ancora ci attende. In questo editoriale, cerchiamo di fare proprio questo. Iniziamo esaminando il passato dell&#8217;IA per vedere quanto sia evoluta questa area utilizzando l&#8217;analogia delle quattro stagioni (primavera, estate, autunno e inverno), poi il presente per capire quali sfide le aziende affrontano oggi e infine il futuro per aiutare tutti a prepararsi alle sfide che ci attendono.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"La_Nascita_dellAI\"><\/span>La Nascita dell&#8217;AI<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Sebbene sia difficile individuare una data precisa, le radici dell&#8217;Intelligenza Artificiale possono probabilmente<strong> essere fatte risalire agli anni &#8217;40<\/strong>, nello specifico al 1942, quando lo scrittore di fantascienza americano Isaac Asimov pubblic\u00f2 il suo breve racconto &#8220;Runaround&#8221;. La trama di <strong>Runaround<\/strong>, una storia su un robot sviluppato dagli ingegneri Gregory Powell e Mike Donovan, ruota attorno alle Tre Leggi della Robotica: <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Un robot non pu\u00f2 recar danno a un essere umano n\u00e9 pu\u00f2 permettere che, a causa del suo mancato intervento, un essere umano riceva danno.<\/li>\n\n\n\n<li>Un robot deve obbedire agli ordini impartiti dagli esseri umani, purch\u00e9 tali ordini non vadano in contrasto alla Prima Legge.<\/li>\n\n\n\n<li>Un robot deve proteggere la propria esistenza, purch\u00e9 la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.<\/li>\n<\/ul>\n\n\n\n<p>Il lavoro di Asimov ha ispirato generazioni di scienziati nel campo della robotica, dell&#8217;IA e dell&#8217;informatica, tra cui il cognitivista americano Marvin Minsky che in seguito ha co-fondato il laboratorio AI del MIT.<\/p>\n\n\n\n<p>Pi\u00f9 o meno nello stesso periodo, ma a pi\u00f9 di 5.000 km di distanza, il matematico inglese <strong>Alan Turing <\/strong>lavor\u00f2 su questioni molto meno fittizie e svilupp\u00f2 una macchina per decifrare codici per il governo britannico, con lo scopo di decifrare <strong>il codice Enigma usato dall&#8217;esercito tedesco nella seconda guerra mondiale<\/strong>. <\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"951\" src=\"https:\/\/www.alground.com\/origin\/wp-content\/uploads\/2023\/02\/alan-turing-1024x951.jpg\" alt=\"\" class=\"wp-image-58174\" srcset=\"https:\/\/alground.com\/site\/wp-content\/uploads\/2023\/02\/alan-turing-1024x951.jpg 1024w, https:\/\/alground.com\/site\/wp-content\/uploads\/2023\/02\/alan-turing-300x279.jpg 300w, https:\/\/alground.com\/site\/wp-content\/uploads\/2023\/02\/alan-turing-768x714.jpg 768w, https:\/\/alground.com\/site\/wp-content\/uploads\/2023\/02\/alan-turing.jpg 1200w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\">Alan Turing<\/figcaption><\/figure>\n\n\n\n<p>La macchina di Turing aveva un peso di circa una tonnellata, \u00e8 generalmente considerato il primo computer elettromeccanico funzionante. Il modo potente in cui la macchina \u00e8 stata in grado di decifrare il codice Enigma, un compito precedentemente impossibile anche ai migliori matematici umani, ha fatto meravigliare Turing stesso sull&#8217;intelligenza di tali macchine. Nel 1950 pubblic\u00f2 il suo fondamentale articolo \u201c<strong>Computing Machinery and Intelligence<\/strong>\u201d in cui descriveva <strong>come creare macchine intelligenti e in particolare come testare la loro intelligenza<\/strong>. <\/p>\n\n\n\n<p>Il test di Turing \u00e8 ancora oggi considerato un punto di riferimento per identificare l&#8217;intelligenza di un sistema artificiale, se un essere umano sta interagendo con un altro essere umano e una macchina e non \u00e8 in grado di distinguere la macchina dall&#8217;umano, allora la macchina si dice intelligente.<\/p>\n\n\n\n<p>La parola <strong>Intelligenza Artificiale <\/strong>fu poi coniata ufficialmente circa sei anni dopo, quando nel 1956 <strong>Marvin Minsky e John McCarthy<\/strong>, un informatico a Stanford, ospitarono il Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI) della durata di circa otto settimane presso il Dartmouth College di New Hampshire. Questo seminario, che segna l&#8217;inizio della primavera dell&#8217;IA ed \u00e8 stato finanziato dalla Fondazione Rockefeller, ha riunito coloro che in seguito sarebbero stati considerati i padri fondatori dell&#8217;IA. <\/p>\n\n\n\n<p>Tra i partecipanti c&#8217;erano lo scienziato informatico Nathaniel Rochester, che in seguito progett\u00f2 l&#8217;<strong>IBM 701<\/strong>, il primo computer scientifico commerciale, e il matematico Claude Shannon, che fond\u00f2 la teoria dell&#8217;informazione. L&#8217;obiettivo di DSRPAI era quello di riunire ricercatori di vari campi al fine di creare una nuova area di ricerca finalizzata alla costruzione di macchine in grado di simulare l&#8217;intelligenza umana.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Gli_alti_e_bassi_dellIA\"><\/span>Gli alti e bassi dell&#8217;IA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>La Conferenza di Dartmouth fu seguita da un periodo di quasi due decenni che vide significativi successi nel campo dell&#8217;IA. Un esempio \u00e8 il famoso programma informatico ELIZA, creato tra il 1964 e il 1966 da Joseph Weizenbaum al MIT. <strong>ELIZA era uno strumento di elaborazione del linguaggio naturale <\/strong>capace di simulare una conversazione con un essere umano ed \u00e8 stato uno dei primi programmi in grado di tentare di superare il Turing Test. <strong>Un&#8217;altra storia di successo dei primi giorni dell&#8217;IA fu il programma General Problem Solver,<\/strong> sviluppato dal premio Nobel Herbert Simon e dai ricercatori della RAND Corporation Cliff Shaw e Allen Newell, che era in grado di risolvere automaticamente determinati tipi di problemi semplici, come la <strong>Torre di Hanoi<\/strong>. A seguito di queste storie di successo ispiratrici, furono dati cospicui finanziamenti alla ricerca sull&#8217;IA, portando a sempre pi\u00f9 progetti. Nel 1970, Marvin Minsky rilasci\u00f2 un&#8217;intervista alla rivista Life in cui affermava che si sarebbe potuto sviluppare una macchina con l&#8217;intelligenza generale di un essere umano medio entro tre o otto anni.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"512\" src=\"https:\/\/www.alground.com\/origin\/wp-content\/uploads\/2023\/01\/intelligenza-artificiale-1024x512.jpg\" alt=\"Intelligenza Artificiale\" class=\"wp-image-57920\" srcset=\"https:\/\/alground.com\/site\/wp-content\/uploads\/2023\/01\/intelligenza-artificiale-1024x512.jpg 1024w, https:\/\/alground.com\/site\/wp-content\/uploads\/2023\/01\/intelligenza-artificiale-300x150.jpg 300w, https:\/\/alground.com\/site\/wp-content\/uploads\/2023\/01\/intelligenza-artificiale-768x384.jpg 768w, https:\/\/alground.com\/site\/wp-content\/uploads\/2023\/01\/intelligenza-artificiale.jpg 1100w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>Tuttavia, sfortunatamente, non fu cos\u00ec. Solo tre anni dopo, nel 1973, il Congresso degli Stati Uniti inizi\u00f2 a criticare fortemente la spesa elevata per la ricerca sull&#8217;Intelligenza Artificiale. Lo stesso anno, il matematico britannico James Lighthill pubblic\u00f2 una relazione commissionata dal <strong>Consiglio di Ricerca Scientifica britannico<\/strong> in cui mise in discussione le prospettive ottimistiche degli studiosi di Intelligenza Artificiale. Lighthill afferm\u00f2 che le macchine avrebbero raggiunto solo il livello di un &#8220;amatore esperto&#8221; in giochi come gli scacchi e che il ragionamento di buon senso sarebbe sempre stato al di l\u00e0 delle loro capacit\u00e0. <\/p>\n\n\n\n<p>In risposta, il governo britannico interruppe il sostegno alla ricerca sull&#8217;Intelligenza Artificiale in tutte le universit\u00e0 tranne tre (Edimburgo, Sussex ed Essex) e presto anche il governo degli Stati Uniti segu\u00ec l&#8217;esempio britannico. <strong>Questo periodo inizi\u00f2 l&#8217;Inverno dell&#8217;Intelligenza Artificiale. E sebbene il governo <\/strong>giapponese abbia iniziato a finanziare pesantemente la ricerca sull&#8217;Intelligenza Artificiale negli anni &#8217;80, a cui il DARPA degli Stati Uniti ha risposto con un aumento dei finanziamenti, non sono stati fatti ulteriori progressi nei successivi anni.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Gli_sviluppi_dellIntelligenza_Artificiale\"><\/span>Gli sviluppi dell&#8217;Intelligenza Artificiale<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Uno dei motivi dell&#8217;iniziale mancanza di progressi nel campo dell&#8217;intelligenza artificiale e del fatto che la realt\u00e0 \u00e8 scesa bruscamente rispetto alle aspettative risiede nel modo specifico in cui i primi sistemi come ELIZA e il General Problem Solver hanno cercato di replicare l&#8217;intelligenza umana. Nello specifico, erano tutti Sistemi Esperti, ovvero <strong>raccolte di regole che presuppongono che l&#8217;intelligenza umana possa essere formalizzata<\/strong> e ricostruita in un approccio dall&#8217;alto verso il basso come una serie di affermazioni &#8220;se-allora&#8221;, che si prestano a tale formalizzazione. <\/p>\n\n\n\n<p>Ad esempio, il programma di gioco degli scacchi Deep Blue di IBM, che nel 1997 \u00e8 stato in grado di battere il campione del mondo Gary Kasparov secondo quanto riferito, Deep Blue \u00e8 stato in grado di elaborare 200 milioni di possibili mosse al secondo e di determinare la mossa successiva ottimale guardando 20 mosse avanti attraverso l&#8217;uso di un metodo chiamato ricerca ad albero. <\/p>\n\n\n\n<p>Ad esempio, un Sistema Esperto <strong>non pu\u00f2 essere facilmente addestrato a riconoscere i volti<\/strong> o persino a distinguere tra un&#8217;immagine che mostra un muffin e una che mostra un Chihuahua. Per tali compiti \u00e8 necessario che un sistema sia in grado di interpretare correttamente i dati esterni, per imparare da tali dati e utilizzare tali apprendimenti per raggiungere obiettivi e compiti specifici attraverso un adattamento flessibile, caratteristiche che definiscono l&#8217;IA. Poich\u00e9 i Sistemi Esperti <strong>non possiedono queste caratteristiche, tecnicamente parlando non sono vere IA<\/strong>. I metodi statistici per ottenere una vera intelligenza artificiale sono stati discussi gi\u00e0 negli anni &#8217;40, quando lo psicologo canadese Donald Hebb svilupp\u00f2 una teoria dell&#8217;apprendimento nota come Hebbian Learning che replica il processo dei neuroni nel cervello umano. <\/p>\n\n\n\n<p>Tuttavia, questo lavoro \u00e8 rimasto fermo nel 1969, quando Marvin Minsky e Seymour Papert hanno dimostrato che i computer non avevano una potenza di elaborazione sufficiente per gestire il lavoro richiesto da tali reti neurali artificiali. Le reti neurali artificiali sono tornate alla ribalta sotto forma di Deep Learning quando nel 2015 <strong>AlphaGo , un programma sviluppato da Google, \u00e8 riuscito a battere il campione del mondo nel gioco da tavolo Go<\/strong>. <\/p>\n\n\n\n<p>Oggi le reti neurali artificiali e il <strong>Deep Learning <\/strong>costituiscono la base della maggior parte delle applicazioni che conosciamo sotto l&#8217;etichetta di IA. Sono la base degli algoritmi di riconoscimento delle immagini utilizzati da Facebook, algoritmi di riconoscimento vocale che alimentano altoparlanti intelligenti e auto a guida autonoma. Questa raccolta dei frutti dei progressi statistici passati \u00e8 il periodo di IA Fall, in cui ci troviamo oggi.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Il_futuro_dellIntelligenza_Artificiale\"><\/span>Il futuro dell&#8217;Intelligenza Artificiale<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Il fatto che nel prossimo futuro i sistemi di intelligenza artificiale faranno sempre pi\u00f9 parte della nostra vita quotidiana solleva la questione se \u00e8 necessaria la regolamentazione e, in tal caso, in quale forma. <strong>Sebbene l&#8217;IA sia nell&#8217;obiettivo di essenza e senza pregiudizio, non significa che i sistemi basati sull&#8217;intelligenza artificiale non possano essere distorti<\/strong>. In effetti, a causa del suo stesso natura, qualsiasi distorsione presente nei dati di input utilizzati per addestrare un sistema di IA persiste e pu\u00f2 persino essere amplificata. <\/p>\n\n\n\n<p>La ricerca ha, ad esempio, dimostrato che i sensori utilizzati nelle auto a guida autonoma sono migliori nel rilevare tonalit\u00e0 della pelle pi\u00f9 chiare rispetto a quelle pi\u00f9 scure a causa del tipo di immagini utilizzate per addestrare tali algoritmi o che i sistemi di supporto decisionale utilizzati dai giudici possono essere di parte razziale poich\u00e9 si basano sull&#8217;analisi di sentenze passate. <strong>Invece di cercare di regolamentare l&#8217;intelligenza artificiale stessa, il modo migliore per evitare tali errori \u00e8 probabilmente quello di sviluppare <\/strong>requisiti comunemente accettati per quanto riguarda l&#8217;addestramento e il test degli algoritmi di intelligenza artificiale, possibilmente in combinazione con qualche forma di garanzia, simile ai protocolli di test sui consumatori e sulla sicurezza utilizzati per i test fisici prodotti. <\/p>\n\n\n\n<p>Ci\u00f2 consentirebbe una regolamentazione stabile anche se gli aspetti tecnici dei sistemi di IA si evolvessero nel tempo. Una questione correlata \u00e8 quella della responsabilit\u00e0 delle aziende per gli errori dei loro algoritmi o anche la necessit\u00e0 di un codice morale degli ingegneri di intelligenza artificiale, simile a quello su cui giurano avvocati o medici. <strong>Ci\u00f2 che tali regole, tuttavia, non possono evitare \u00e8 l&#8217;hacking deliberato dei sistemi di intelligenza artificiale<\/strong>, l&#8217;uso indesiderato di tali sistemi per il microtargeting basato sui tratti della personalit\u00e0 o la generazione di notizie false. Ci\u00f2 che rende le cose ancora pi\u00f9 complicate \u00e8 che il Deep Learning, una tecnica chiave utilizzata dalla maggior parte dei sistemi di intelligenza artificiale, \u00e8 intrinsecamente una scatola nera. Sebbene sia semplice valutare la qualit\u00e0 dell&#8217;output generato da tali sistemi, ad esempio, la quota di immagini correttamente classificate, il processo utilizzato per farlo rimane in gran parte opaco. <\/p>\n\n\n\n<p>Tale opacit\u00e0 pu\u00f2 essere intenzionale, ad esempio, se una societ\u00e0 vuole mantenere segreto un algoritmo, a causa dell&#8217;analfabetismo tecnico o correlata alla scala dell&#8217;applicazione. Sebbene ci\u00f2 possa essere accettabile in alcuni casi, pu\u00f2 esserlo meno in altri. Ad esempio, a poche persone potrebbe interessare il modo in cui Facebook identifica chi taggare in una determinata immagine. Ma quando i sistemi di intelligenza artificiale vengono utilizzati per fornire suggerimenti diagnostici per il cancro della pelle sulla base dell&#8217;analisi automatica delle immagini, capire come tali raccomandazioni sono state derivate diventa fondamentale.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Conclusioni\"><\/span>Conclusioni<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Nessuno sa se l&#8217;intelligenza artificiale ci consentir\u00e0 di migliorare la nostra intelligenza, come pensa Raymond Kurzweil di Google, o se alla fine ci guider\u00e0 nella terza guerra mondiale, una preoccupazione sollevata da Elon Musk. Tuttavia, tutti concordano sul fatto che si tradurr\u00e0 in sfide etiche, legali e filosofiche uniche che dovranno essere affrontate.<\/p>\n\n\n\n<p>Per decenni, l&#8217;etica ha affrontato il problema del carrello, un esperimento mentale in cui una persona immaginaria deve scegliere tra inattivit\u00e0 porta alla morte di molti e l&#8217;attivit\u00e0 che porta alla morte di pochi. In un mondo di auto a guida autonoma, questi problemi diventeranno scelte effettive che le macchine e, per estensione, i loro programmatori umani dovranno fare.<\/p>\n\n\n\n<p>In risposta, le richieste di regolamentazione sono state numerose, anche da parte di attori importanti come Mark Zuckerberg. Ma come possiamo regolamentare una tecnologia che \u00e8 in continua evoluzione da sola e che pochi esperti, per non parlare dei politici, comprendono appieno? Come possiamo superare la sfida di essere sufficientemente ampi da consentire evoluzioni future in questo mondo in rapido movimento e sufficientemente precisi da evitare che tutto venga considerato come IA? <\/p>\n\n\n\n<p>Una soluzione pu\u00f2 essere seguire l&#8217;approccio del giudice della Corte Suprema degli Stati Uniti Potter Stewart che nel 1964 defin\u00ec l&#8217;oscenit\u00e0 dicendo: &#8220;Lo so quando lo vedo&#8221;. Questo ci riporta all&#8217;effetto AI menzionato in precedenza, che ora tendiamo rapidamente ad accettare come normale fosse visto come straordinario. Esistono oggi dozzine di app diverse che consentono a un utente di giocare a scacchi contro il suo telefono. Giocare a scacchi contro una macchina &#8211; e perdere con quasi certezza &#8211; \u00e8 diventata una cosa che non vale nemmeno la pena menzionare. Presumibilmente, Garry Kasparov aveva una visione completamente diversa su questo argomento nel 1997, poco pi\u00f9 di 20 anni fa. <\/p>\n\n\n\n<p><em>Biografie dell&#8217;autore <br>Michael Haenlein \u00e8 professore presieduto dal Big Data Research Center e decano associato dell&#8217;Executive PhD Program presso la ESCP Europe Business School (e-mail: haenlein@escpeurope.eu). Andreas Kaplan, professore e preside della ESCP Europe Business School di Berlino, \u00e8 tra i primi 50 autori di business e management in tutto il mondo (e-mail: akaplan@escpeurope.eu).<\/em><\/p>\n\n\n\n<p>Il presente testo \u00e8 una libera traduzione del A Brief History of Artificial Intelligence: On the Past, Present, and Future of Artificial Intelligence<\/p>\n","protected":false},"excerpt":{"rendered":"<p>L&#8217;Intelligenza Artificiale pu\u00f2 essere classificata in IA analitica, ispirata all&#8217;essere umano e umanizzata a seconda dei tipi di intelligenza che esprime, intelligenza cognitiva, emotiva e sociale o in intelligenza artificiale ristretta, generale e super a seconda del suo stadio evolutivo. Tuttavia, ci\u00f2 che tutti questi tipi hanno in comune \u00e8 che quando l&#8217;IA raggiunge un [&hellip;]<\/p>\n","protected":false},"author":3,"featured_media":58170,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"pmpro_default_level":"","footnotes":""},"categories":[1413,387,2168],"tags":[2147],"class_list":{"0":"post-58167","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-attualita","8":"category-guide-sicurezza","9":"category-intelligenza-artificiale","10":"tag-intelligenza-artificiale","11":"pmpro-has-access"},"aioseo_notices":[],"jetpack_featured_media_url":"https:\/\/alground.com\/site\/wp-content\/uploads\/2023\/02\/intelligenza-artificiale-storia.jpg","wps_subtitle":"","_links":{"self":[{"href":"https:\/\/alground.com\/site\/wp-json\/wp\/v2\/posts\/58167","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/alground.com\/site\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/alground.com\/site\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/alground.com\/site\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/alground.com\/site\/wp-json\/wp\/v2\/comments?post=58167"}],"version-history":[{"count":0,"href":"https:\/\/alground.com\/site\/wp-json\/wp\/v2\/posts\/58167\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/alground.com\/site\/wp-json\/wp\/v2\/media\/58170"}],"wp:attachment":[{"href":"https:\/\/alground.com\/site\/wp-json\/wp\/v2\/media?parent=58167"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/alground.com\/site\/wp-json\/wp\/v2\/categories?post=58167"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/alground.com\/site\/wp-json\/wp\/v2\/tags?post=58167"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}