Intelligenza artificiale, autonomia contrattuale e meccanismi di controllo

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Microcredito

per le aziende

 


[1] Proprio sul rapporto tra intelligenza artificiale e contratto si veda, tra i lavori monografici, Bravo, Contrattazione telematica e contrattazione cibernetica, Miano, 2007. Si vedano anche i saggi di Nervi, L’impiego del computer nel procedimento di formazione del contratto, in Il contratto telematico, a cura di Ricciuto e Zorzi, Padova, 2002, p. 111 ss.; Finocchiaro, La conclusione del contratto telematico mediante i “software agents”: un falso problema giuridico?, in questa rivista, 2002, 2, p. 500 ss.; Bravo, Agenti software, protezione dei dati personali ed attività negoziale, in Nuova giur. civ., 2004, 1, II, pp. 201 ss.; Bravo, Problemi di diritto contrattuale ed esemplificazioni nella distribuzione on line di opere digitali mediante sistemi automatici per la negoziazione dei diritti (DRM), in Vita not., 2006, 3, p. 1527-1550; Bravo, DRM, contrattazione telematica e contrattazione mediante agenti software nella distribuzione B2C, in La gestione e la negoziazione automatica dei diritti sulle opere dell’ingegno digitali: aspetti giuridici e informatici, a cura di Bisi e Di Cocco, Bologna, 2006, pp. 73-170; Bravo, L’utilizzo degli agenti software per l’attività negoziale. Connessioni tra diritto contrattuale e diritto alla protezione dei dati personali, in Agenti software e commercio elettronico: profili giuridici, tecnologici e psico-sociale, a cura di Sartor, Cevenini e Quadri di Cardano, Bologna, 2006, vol. II, pp. 677-724; Bravo, Contratto cibernetico, in Dir. inf., 2011, 2, pp. 169-211. Più recentemente, Finocchiaro, Il contratto nell’era dell’intelligenza artificiale, in Riv. trim. dir. e proc. civ., 2018, 2, p. 441 ss.; Di Giovanni, Attività contrattuale e intelligenza artificiale, in Giur. it., 2019, p 1683 ss.; A.M. Benedetti, Contratto, algoritmo e diritto civile transnazionale: cinque questioni e due scenari, in Riv. dir. civ., 2021, p. 411 ss.; Poletti, L’intelligenza artificiale e le prove di resistenza delle regole contrattuali, in XXVI lezioni di diritto dell’intelligenza artificiale, a cura di Ruffolo, Torino, 2021, p. 193 ss.; Bravo, Esplorando le implicazioni giuridiche dell’Intelligenza Artificiale nei contratti, in DiMT – Diritto Mercato Tecnologia, 9 marzo 2024, disponibile online all’indirizzo https://www.dimt.it/news/esplorando-le-implicazioni-giuridiche-dellintelligenza-artificiale-nei-contratti-una-conversazione-con-il-prof-fabio-bravo/. Si veda anche Ruffolo e Amidei, Dirito dell’Intelligenza Artificiale, Roma, 2024, I, p. 227 ss.

[2] Tale prospettiva è ribadita chiaramente anche nel recente regolamento europeo sull’intelligenza artificiale (AI Act), Reg. (UE) 2024/1689, ad es. nel considerando n. 1, ove si chiarisce che l’«Unione, promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile», nel considerando n. 6, ove si trova precisato che «l’IA dovrebbe essere una tecnologia antropocentrica. Dovrebbe fungere da strumento per le persone, con il fine ultimo di migliorare il benessere degli esseri umani», in altri considerando e, ancora, nell’art. 1, nel quale si chiarisce che lo scopo del regolamento è quello di «migliorare il funzionamento del mercato interno e promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, contro gli effetti nocivi dei sistemi di IA nell’Unione, e promuovendo l’innovazione».

[3] Cfr. Sartor, Gli agenti software: nuovi soggetti del ciberdiritto?, in questa rivista, 2002, 2, p. 492.

Carta di credito con fido

Procedura celere

 

[4] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)), Bruxelles, 2018 (in G.U.U.E., C 252, del 18 luglio 2018, p. 239 ss.), punto n. 59, lett. f), con il quale il Parlamento europeo ha invitato «la Commissione a esplorare, esaminare e valutare, nell’ambito della valutazione d’impatto del suo futuro strumento legislativo, le implicazioni di tutte le soluzioni giuridiche possibili, tra cui: (…) l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi».

[5] Che l’attribuzione della soggettività implichi l’individuazione di un centro di imputazione di interessi è corollario che si ricava dalla nozione stessa di soggetto giuridico, su cui v. Galgano, Trattato di diritto civile, cit.., vol. 1, p. 201, 227, 230 ss. Per un’analisi delle implicazioni in materia di IA si veda, segnatamente, Zorzi Galgano, Premessa, in Diritto e intelligenza artificiale, a cura di Alpa, Pisa, 2020, p. 15 ss.

[6] Sull’inaccettabilità delle tesi soggettivistiche e sulla riconducibilità al mondo delle res dei programmi di intelligenza artificiale, quali “prodotti” tecnologici, si v. Bravo, Contrattazione telematica e contrattazione cibernetica, cit., passim, e Bravo, Contratto cibernetico, cit., p. 172 ss. Nella medesima direzione, con riguardo al tema della soggettività, v. Zorzi Galgano, Premessa, cit., p. 15 ss.

[7] Cfr. riferimenti in nota precedente.

[8] Per l’uso delle metafore nel linguaggio giuridico e, in particolare, con riferimento proprio alla nozione di personalità giuridica, si vedano le magistrali pagine di Galgano, Le insidie del linguaggio giuridico. Saggio sulle metafore nel diritto, Bologna, 2010. Si veda altresì, con specifico riguardo al tema della soggettività giuridica dei sistemi di IA, ancora una volta Zorzi Galgano, Premessa, cit., p. 15 ss. e, con riguardo all’IA in generale, Finocchiaro, Intelligenza artificiale. Quali regole?, Bologna, 2024, p. 21-27.

[9] In questo senso si veda chiaramente, ad es., il considerando n. 1 dell’IA Act, ove viene ribadito che lo scopo del predetto regolamento è, tra l’altro, quello di «(…) promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea (…), compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente (…)».

[10] Si pensi, ad esempio, al Capo I (Dignità) della Carta dei diritti fondamentali dell’UE, nel quale, all’art. 3, rubricato «Diritto all’integrità della persona», il principio di dignità viene declinato non solo con riguardo alla prerogativa della tutela individuale, bensì anche nella prospettiva di tutela del genere umano, contro i rischi di clonazione riproduttiva di esseri umani e quelli relativi a pratiche eugenetiche, aventi come scopo la selezione delle persone, entrambi espressamente vietate a tutela più dell’umanità in sé, nelle sue caratteristiche distintive, che non della persona umana individualmente considerata.

[11] Si veda quanto illustrato nel prosieguo.

Contabilità

Buste paga

 

[12] Il riferimento è a N. Irti, Scambi senza accordo, in Riv. trim. dir. e proc. civ., 1998, p. 347 ss.

[13] Se, di fronte all’uso dell’IA per impieghi contrattuali siamo di fronte a “scambi senza accordo”, è problema già analizzato, con risposta negativa, in Bravo, Contrattazione telematica e contrattazione cibernetica, cit., p. 235 ss.

[14] Si tratta di due accezioni di autonomia completamente diverse: nel primo caso (autonomia operativa del sistema di IA) si fa riferimento alla capacità di azione autonoma della macchina, che è concetto pregiuridico; nel secondo caso (autonomia contrattuale dell’utilizzatore) si fa riferimento al concetto prettamente giuridico di autonomia contrattuale, che include quello di “autopoiesi normativa”, sicuramente estraneo alla precedente accezione.

[15] La tesi dell’applicazione analogica, seppur cum grano salis, dell’istituto giuridico della rappresentanza alle tecnologie di intelligenza artificiale (tempo addietro comunemente definite “cibernetiche” o relative ad “agenti software”) è stata prospettata nel secolo scorso da Borruso, Computer e diritto, II. Problemi giuridici dell’informatica, Milano, 1988, p. 261. Successivamente tale tesi è stata ripresa, fino anche ad interrogarsi se non sia da riconoscere, eventualmente de jure condendo, pur anche senza attribuzione di una vera e propria personalità giuridica, una soggettività all’agente cibernetico. È questo uno dei punti principali su cui si è instaurata la discussione, di opposte vedute, tra Sartor, Gli agenti software: nuovi soggetti del ciberdiritto?, cit., p. 466 ss. e Finocchiaro, La conclusione del contratto telematico mediante i «software agents»: un falso problema giuridico?, cit., p. 501 ss. Sul punto ha interloquito anche Taddei Elmi, Law and Artificial Subjectivity, in The law of electronics agent. Proceedings of the LEA 04 Workshop, a cura di Cevenini, Bologna, 2004, p. 55 ss. Va però ricordato come già nel 1901, con riguardo al diverso tema dei contratti per automatico, l’autorevole dottrina di Antonio Cicu si esprimeva affermando che «A meno che infatti non si voglia attribuire all’automa una personalità, a meno che non si voglia riconoscere in esso un rappresentante della volontà dell’offerente nel concetto giuridico di rappresentanza, dovrà l’automa considerarsi come un mezzo per cui la volontà dell’offerente viene fatta manifesta all’oblato. In quest’ordine di idee potrebbe esso paragonarsi ad un messo, il quale ha unicamente l’ufficio di “trasportare le parole del mittente al destinatario” senza alcun intervento della sua volontà; ed il contratto conchiuso per messo fu sempre posto nella categoria dei contratti fra assenti. Ma l’analogia non può esser spinta più in là, poiché, se l’automa è, come messo, un semplice mezzo di comunicazione di volontà, resta pur sempre una macchina». Cfr. Cicu, Gli automi nel diritto privato, in Cicu, Scritti minori di Antonio Cicu, 2. Successioni e donazioni. Studi vari, Milano, 1965, p. 30 ss., e segnatamente p. 309; il saggio in parola è stato originariamente edito in Filangeri, 1901, p. 561 ss. (v., per una più ampia ricostruzione, Bravo, Contrattazione telematica e contrattazione cibernetica, cit., p. 199 ss.).

[16] Lo stesso termine “agent” designa tecnicamente, in inglese, il soggetto che agisce per conto di un altro che a tal fine lo abbia autorizzato, attribuendogli i relativi poteri, sfumatura poi persa nell’uso italiano dell’espressione “agente software” o “agente cibernetico”, nella quale l’accento viene posto non tanto sull’idea che l’attività del software sia funzionale a replicare l’attività di una sorta di rappresentante che agisca in vece dell’utilizzatore, ma sulla capacità di azione autonoma, senza alludere direttamente all’idea di rappresentanza suggerita dal termine di lingua inglese.

[17] Il che, ovviamente, pone problemi applicativi se indagati con riguardo al rappresentante. Meglio sarebbe propendere per una valutazione obiettiva, che consideri i vizi del consenso al di fuori dello schema della rappresentanza. Con riguardo all’errore motivo si veda, specificamente, Bravo, Contrattazione telematica e contrattazione cibernetica, cit., p. 205 ss., 210, ss., 220 ss.

[18] Diversamente da quanto previsto dall’art. 1431 c.c. in tema di riconoscibilità dell’errore, che fa riferimento alla rilevabilità da parte di una persona di normale diligenza, con un riferimento in qualche modo oggettivabile, l’art. 1391 c.c., in tema di stati soggettivi rilevanti, fa esclusivo riferimento alla condizione in cui effettivamente versa la persona del rappresentante, per gli elementi che non siano stati predeterminati dal rappresentato.

Sconto crediti fiscali

Finanziamenti e contributi

 

[19] Su tale ragionamento si collocano anche le scelte effettuate in sede internazionale presso l’UNCITRAL. Come rimarcato da Finocchiario, Intelligenza artificiale. Quali regole?, cit., p. 33 s., «Nei lavori della United Nations Commission on International Trade Law (UNCITRAL) sui contratti conclusi dai sistemi di IA, si afferma con grande chiarezza che i sistemi automatici non hanno volontà né personalità giuridica e che le dichiarazioni così come gli stati soggettivi sono attribuiti alla persona per cui opera il sistema».

[20] Sulla inderogabilità del principio di imputabilità alla parte dei soli effetti da questa consapevolmente voluti si v. anche D. Di Sabato, Tecnologia algoritmica e attività negoziale smart, in questa rivista, 2024, 2, p. 360. È questo, del resto, un corollario del principio di autonomia contrattuale esplicantesi nel suo aspetto “negativo”, su cui v. Galgano, Trattato di diritto civile, Milano, 2014, 3a ed. aggiornata a cura di Zorzi Galgano, vol. 2, p. 183: «libertà o autonomia contrattuale significa, in senso negativo, che nessuno può essere spogliato dei propri beni o essere costretto ad eseguire prestazioni a favore di altri contro o, comunque, indipendentemente dalla propria volontà».

[21] L’opzione interpretativa che insiste sul principio di accettazione del rischio dell’operato dal sistema di IA nello svolgimento dell’attività contrattuale, quale alternativa ad una ricostruzione in termini di determinabilità dell’oggetto del contratto è stata percorsa ad esempio – nell’ambito però di un ragionamento critico ben articolato e sicuramente apprezzabile, in quanto non limitato al solo principio in questione e, dunque, con considerazioni di più ampio respiro – da Finocchiaro, Il contratto nell’era dell’intelligenza artificiale, cit., p. 455 s., ove si evidenzia che, «essendo il contratto concluso in maniera automatica al ricorrere di certi presupposti, le condizioni effettive attuali alle quali il contratto viene alla fine concluso possono non essere note al contraente, soprattutto se si tratta di un meccanismo decisionale complesso che prevede molte variabili. Ora, mentre è abbastanza semplice rappresentarsi, ad esempio, che il contratto sarà concluso se il prezzo relativo alla compravendita di un bene si attesterà all’interno di un range compreso fra 1 e 10, più difficile risulta la rappresentazione del contenuto del contratto se le variabili che lo determinano sono molte e se i meccanismi di combinazione sono, a loro volta, numerosi. Il che diviene ancora più complesso qualora il programma sfrutti un sistema di auto-apprendimento e dunque “impari”, per così dire, dalle circostanze. Qualche anno fa si sarebbe detto che la volontà era riconducibile comunque all’autore del programma. Oggi la volontà non può dirsi predeterminata o predeterminabile in modo sicuro, preso atto che esistono algoritmi, i quali sono in grado di apprendere in modo autonomo e di prendere decisioni senza che le relazioni causa-effetto siano necessariamente comprese dall’uomo. È stata superata quella frontiera costituita dalla effettiva diffusione dei programmi di intelligenza artificiale». Sicché, prosegue l’A., «L’oggetto del contratto in questo caso certamente non è determinato. Esso è determinabile, ma non sempre prevedibile, sulla base di criteri e di parametri che in taluni casi non consentono una rappresentazione anticipata. In questo caso, il contraente potrebbe non essere in condizione di conoscere in modo compiuto anticipatamente il contenuto del contratto che andrà a concludere. Ma avrà comunque espresso rispetto alla conclusione del contratto la propria dichiarazione positiva di volontà. Il contenuto del contratto è dunque determinabile, ma secondo modalità che non sempre consentono una pre-comprensione. Occorre dunque chiedersi se di volontà in senso stretto si tratta, anticipatamente dichiarata, rispetto all’effettivo formarsi delle condizioni contrattuali e quindi del contenuto negoziale, almeno in parte, oppure se non sia invece più aderente rappresentare tutto ciò nei termini di un sistema di assunzione del rischio. In altri termini, la narrazione giuridica può declinarsi affermando che il contraente ha accettato il rischio di concludere il contratto attraverso un dato sistema informatico che utilizza un programma di intelligenza artificiale, o affermando che lo stesso contraente ha concluso un contratto con oggetto determinabile attraverso un sistema di intelligenza artificiale».

[22] Il problema è affrontato anche da S. Troiano, Il contratto tra analogico e digitale, in Pactum, 2022, 1, p. 58, là dove rimarca che «più delicata appare la questione relativa al requisito della determinabilità dell’oggetto, specialmente se si è propensi ad intenderlo come espressione di un’esigenza di concretezza (di previsione) dei contorni dell’impegno negoziale, che difficilmente parrebbe dirsi soddisfatta da un protocollo informatico chiamato, in sostituzione delle parti, ad assumere decisioni complesse sulla base dell’analisi di un numero non preventivabile di variabili concrete. Ed anche ove si ritenga l’obiezione superabile, o adottando una diversa (e più tradizionale) concezione del requisito della determinabilità che da una concreta prevedibilità dell’impegno prescinda, oppure riconoscendo che la nozione di determinabilità è suscettibile di dilatarsi in quelle ipotesi (ed è il caso, innanzitutto, dei contratti aleatori) in cui vi è, nelle parti, la consapevole accettazione di un rischio superiore al normale, rimane il problema, appunto, di accertare che una simile accettazione consapevole del rischio vi sia stata: un elemento, questo, che l’opacità degli algoritmi, specie di quelli di intelligenza artificiale, inevitabilmente mette in crisi». In argomento si veda anche A.M. Benedetti, Contratto, algoritmi e diritto civile transnazionale: cinque questioni e due scenari, cit., p. 420 s.; nonché Di Giovanni, Attività contrattuale e intelligenza artificiale, cit., p. 1657 ss.

[23] Sulla possibilità di (parziale) applicazione del principio di affidamento v. Sartor, Gli agenti software e la disciplina giuridica degli strumenti cognitivi, in Dir. inform., 2003, p. 57 ss., nonché, ancora, Di Giovanni, op. cit., p. 1685, per il quale «I principi dell’autoresponsabilità e dell’affidamento impediscono che l’eventuale divergenza tra le aspettative del singolo contraente e la sua dichiarazione così come veicolata ed elaborata dall’intelligenza artificiale possa avere rilevanza. Solo quando si manifesta all’esterno (ed è, cioè, riconoscibile) la divergenza tra gli scopi, le aspettative e le rappresentazioni del contraente umano ed il risultato dell’attività della macchina intelligente, verrà in considerazione l’esigenza di accordare al contraente umano i necessari rimedi».

[24] Cfr. Bravo, Esplorando le implicazioni giuridiche dell’Intelligenza Artificiale nei contratti, cit.

Dilazioni debiti fiscali

Assistenza fiscale

 

[25] Così, ad es., in materia di contratti pubblici, TAR Lazio, Roma, sez. I, 4 giugno 2021, n. 6705.

[26] Si veda in tale direzione, seppur in altro contesto, Cass., sez. III, 5 aprile 2012, n. 5535, in Giust. civ. Mass., 2012, 4, p. 458, ove s’è affermato che «Chi sottoscrive un contratto non può invocarne l’invalidità adducendo di non averlo letto, perché chi immette dichiarazioni nel traffico giuridico ne deve subire le conseguenze, in virtù del principio dell’autoresponsabilità, a meno che non provi che la propria volontà si sia formata in modo viziato (…)».

[27] Ciò anche in considerazione degli obblighi di disclosure e, più in generale, di trasparenza, di cui agli artt. 50 e 86 IA Act, su cui v., amplius, il par. 9 del presente scritto.

[28] Com’è noto, ai sensi dell’art. 1431 c.c., la riconoscibilità dell’errore, ai fini della sua rilevanza, va apprezzata anche in relazione alle «circostanze del contratto», tra le quali può assumere decisivo rilievo, nel nuovo contesto tecnologico ed unitamente ad altri elementi valutativi, la consapevolezza che la controparte stia facendo ricorso ad un sistema automatizzato di negoziazione ai fini del perfezionamento contrattuale.

[29] Come ricorda efficacemente Guido Alpa, «I principi “vanno a caccia in coppia” perché gli istituti giuridici sono il risultato del contemperamento o del compromesso di valori tra loro non compatibili. Un principio spesso opera in coppia con un principio contrapposto senza che questo implichi necessariamente la presenza di un’antinomia o di una totale indeterminazione normativa, perché si possa decidere quale principio debba prevalere nel caso in decisione». Così Alpa, I principi generali, in Trattato di diritto privato a cura di Iudica e Zatti, Milano, 2006, 2a ed., p. 299 s.

[30] Bravo, Esplorando le implicazioni giuridiche dell’intelligenza artificiale nei contratti, cit.

[31] Anche qualora il bilanciamento è operato ex lege, come ad esempio nel caso di operatività dei vizi del consenso, l’accertamento dei presupposti non è di pronta soluzione, richiedendo l’intervento giudiziale, necessario anche in ragione del carattere costitutivo, non dichiarativo, della sentenza di annullamento.

Dilazioni debiti fiscali

Assistenza fiscale

 

[32] Come già rilevato in altra sede, «Ove si volesse ricorrere ai principi per risolvere il problema dell’imputabilità degli effetti giuridici del contratto, così come la loro vincolatività e la loro non ripudiabilità per la parte che si sia avvalso del sistema di IA per la formazione del contratto, va considerato che, in generale, i principi non operano mai isolatamente ma vanno coordinati con altri, anche di segno opposto, che possono trovare applicazione nel peculiare contesto che stiamo esaminando. Così, il principio di responsabilità e di assunzione del rischio impongono di considerare vincolanti gli impegni contrattuali per la parte che abbia deciso di ricorrere a strumenti di IA, dotati di un certo livello di autonomia, per la formazione del contratto: in altre parole, la parte che ha ingenerato una peculiare situazione, giuridicamente vincolante, si farà carico delle conseguenze giuridiche prodotte dall’uso dell’IA, assumendosi i rischi relativi all’impiego di tale tecnologia. Il richiamato principio di responsabilità, così come quello di assunzione del rischio, com’è evidente, vengono invocati per ancorare agli impegni contrattuali la parte che attiva un procedimento di formazione del contratto con l’uso di tecnologie di Artificial Intelligence. In questo senso, possiamo dire che tali principi hanno, per così dire, una “spinta centripeta” rispetto alla vicenda contrattuale. Analoga spinta viene esercitata anche da altro principio, quello di affidamento, in considerazione del quale dovremmo ritenere tutelata la posizione giuridica di chi, esposto all’uso di strumenti di IA a cui abbia fatto ricorso la controparte, sia stato indotto in buona fede a confidare sulla vincolatività degli effetti giuridici generati dal contratto che si è andato a formare in tal modo. Anche il principio di affidamento ha dunque una “spinta centripeta” rispetto alla vicenda contrattuale, perché, unitamente al principio di responsabilità e di assunzione del rischio, fa propendere per l’attivazione di meccanismi di tutela che portino l’utilizzatore del sistema di IA a farsi carico delle conseguenze giuridiche prodotte con la formazione del contratto e la controparte ad essere tutelata per avervi confidato in buona fede. Va però considerato che, in direzione opposta ai predetti principi operano altri di segno opposto, che possono essere utilizzati dalla parte che si avvale del sistema di IA per sottrarsi agli impegni contrattuali e alle conseguenze giuridiche derivanti da tale peculiare modalità di formazione del contratto: in questo senso si tratta di principi aventi, per così dire, una “spinta centrifuga” rispetto alla vicenda contrattuale. Mi riferiscono al principio di vincolatività del contratto ai soli effetti giuridici voluti o, quantomeno, ai soli effetti giuridici prevedibili, che può essere considerato una esplicitazione del principio di autonomia contrattuale e di autodeterminazione. Gli effetti giuridici che si hanno con il contratto, quale “atto giuridico”, possono prodursi solamente qualora siano il prodotto della volontà delle parti, il che richiede anche, in senso negativo, che nessuno possa essere costretto a subire effetti giuridici non voluti, né direttamente né indirettamente, tenendo conto di ciò che poteva ritenersi ragionevolmente prevedibile in relazione alla fattispecie contrattuale posta in essere. In altre parole, una parte che si avvale di uno strumento di IA per l’attività contrattuale non può ritenersi soggetta ad effetti giuridici che non potevano essere previsti al momento in cui abbia volontariamente attivato il procedimento perfezionativo del contratto mediato dalle tecnologie di IA. È nel bilanciamento tra tali principi, di segno opposto, che dovremmo cogliere il punto di equilibrio tra le esigenze di tutela delle parti. Si comprende che è operazione complessa, non agevole, né di pronta soluzione, ma che richiede l’intervento valutativo del giudice, al fine di concretizzare l’operazione di bilanciamento. Non è certo una soluzione efficiente, se si considera che l’introduzione di sistemi di IA trova una delle sue ragioni nelle esigenze di speditezza che può realizzare, defaticando l’uomo dall’attività che altrimenti gli sarebbe propria. V’è un altro rilievo critico da considerare. Anche qualora concentrassimo l’attenzione sui soli principi aventi spinta “centripeta”, cioè quello di responsabilità e quello di assunzione del rischio, oltre che quello di affidamento, ci accorgeremmo che, a ben guardare, si tratterebbe di principi che di per sé soli non portano a ritenere giuridicamente vincolante il contratto, né ad imputare le obbligazioni contrattuali alle parti, potendo essi valere, al contrario, per fondare un’ipotesi di responsabilità da cui discendono conseguenze sul piano risarcitorio, per esempio, ma non sul piano della conferma in ordine all’effettiva vincolatività del contratto e all’effettiva produzione degli effetti, traslativi o obbligatori, che si intendevano produrre con il contratto. Ciò ovviamente qualora il risultato dell’attività contrattuale dell’IA abbia portato all’instaurazione di contenuti ed effetti non prevedibili per la parte che vi abbia fatto ricorso e, dunque, non riconducibili, nemmeno implicitamente, alla sua autonomia contrattuale». Così Bravo, Esplorando le implicazioni giuridiche dell’Intelligenza Artificiale nei contratti, cit.

[33] Bravo, Contrattazione telematica e contrattazione cibernetica, cit., passim e, spec., p. 254 ss., ove viene ribadito che «A ben guardare, allora, lo strumento tecnologico di tipo cibernetico diviene una nuova “fonte” volontaria di integrazione del contratto, esterna rispetto al volere delle parti ed oggettiva, che concorre, insieme con le altre fonti esterne indicate dall’art. 1374 c.c., ravvisate interpretativamente nella legge e nell’intervento equitativo del giudice, secondo la nota ricostruzione dottrinale del Prof. S. Rodotà (…). Conservano la loro attualità, a tal riguardo, le ulteriori parole dell’insigne giurista, per il quale “La definizione della struttura del contratto ‘come sintesi di due dichiarazione di volontà, aventi un certo contenuto’, può essere, senza grave arbitrio, tradotta nel rapporto tra fonti e regolamento contrattuale, così come finora abbiamo considerato” [S. Rodotà, Le fonti di integrazione del contratto, cit., p. 77 (…)]. Le fonti di integrazione volontarie di cui si è parlato infra appaiono trovare la loro consacrazione normativa primariamente nell’art. 1322, co. 1, c.c. e, comunque, nel principio di autonomia privata di cui è partecipe anche l’autonomia contrattuale. Ebbene, il fenomeno del concorso tra fonti diverse per la costruzione del regolamento contrattuale porta ad evidenziare una convergenza tra autonomia ed eteronomia nell’assetto definitivo con cui si provvede a regolamentare gli interessi delle parti, nell’equilibrato rapportarsi tra “autonomia privata” e “limiti imposti dalla legge”, dei quali v’è testuale menzione nell’art. 1322, co. 1, c.c. Nell’ambito dell’autonomia contrattuale possono perciò essere incluse le fonti di integrazione volontaria, nelle quali ricondurre anche l’impiego consapevole degli strumenti cibernetici, mentre nei limiti all’autonomia contrattuale previsti dalla legge, al fine di tener conto di interessi che l’ordinamento intende garantire, possono farsi rientrare le fonti di integrazione del contratto indicate dall’art. 1374 c.c., che intervengono insieme alle prime per la definitiva costruzione del regolamento contrattuale»; Id., Contratto cibernetico, cit., p. 191.

[34] Si veda, in particolare, Nervi, L’impiego del computer nel procedimento di formazione del contratto, cit., p. 114, ove si è accostato alla determinazione dell’oggetto di cui all’art. 1349 c.c., tramite ricorso al terzo arbitratore, il caso in cui ci si affidi ad un sistema elettronico per la formazione e la determinazione dei contenuti del contratto. Si veda anche Ruffolo, La personalità elettronica tra “doveri” e “diritti” della macchina, in XXVI lezioni di diritto dell’Intelligenza Artificiale, a cura di Ruffolo, Torino, 2021, p. 124, il quale, dopo aver escluso la tesi della riconduzione della macchina intelligente alla figura del rappresentante e a quella del nuncius, precisa che il «rapporto uomo-macchina resta (…) parte del foro interno del soggetto giuridico che si affida ad un testo di comunicazione, ed alla scelta del suo contenuto, “automatizzati”. Il momento volitivo del dominus è quello di dichiarare per relationem; è questa la sua scelta volontaria e di volontà (non diversamente da un antico romano che avesse – diremmo noi oggi – incaricato uno schiavo sapiente di redigergli un testo contrattuale per poi affidarvisi senza controllarlo e senza saperlo controllare). Viene meno, così, la necessità di parlare di rappresentato umano assistito da rappresentante (ma anche da mero nuncius) digitale». Si veda anche Finocchiaro, Il contratto nell’era dell’intelligenza artificiale, cit., p. 456, che insiste anche sulla determinabilità dell’oggetto.

Va però annotato che gli strumenti di determinazione dell’oggetto del contratto, con il terzo arbitratore ex art. 1349 c.c. o mediante richiamo per relationem ad altro documento o altra fonte, richiedono solitamente che le parti abbiamo concordato, nel contratto tra le medesime intercorso, tale modalità determinativa dell’oggetto, sicché la determinazione o l’integrazione dei contenuti contrattuali relativi all’oggetto richiede la previa concorde previsione delle parti e la determinazione dell’oggetto è ad essa successiva. Nell’ambito dei contratti conclusi tramite sistemi di IA, invece, l’integrazione della determinazione del contenuto che avrà rilevanza contrattuale è, più che altro, precedente rispetto al formarsi dell’accordo e, generalmente, rimessa alla volontà unilaterale della parte che utilizza per fini contrattuali il sistema di IA, sicché il fenomeno di integrazione che entra qui in rilievo opera con riguardo alla determinazione dei contenuti della proposta o dell’accettazione del contratto e tale operatività si ha per volontà unilaterale del sistema cibernetico, quale fonte di integrazione esterna del proprio “voluto”. In questi termini v. Bravo, Contratto cibernetico, cit., p. 191, nota n. 63.

[35] Cfr., in tal senso, quanto ricordato in Bravo, Contrattazione telematica e contrattazione cibernetica, cit., p. 305 e 470 ss. Sulla negoziabilità automatica delle clausole contrattuali si v. anche Id., Le trattative nei contratti telematici, in Contratti, 2003, 7, p. 739 ss. e Id., Trattative individuali nei contratti dei consumatori conclusi tramite siti web e sindacato di vessatorie delle clausole, in I contratti del consumatore, a cura di Alpa, Milano, 2014, pp. 346 ss.

[36] Per tali rilievi v., ancora una volta, Bravo, Contrattazione telematica e contrattazione cibernetica, cit., passim e, spec., p. 254 ss.

[37] Bravo, Contrattazione telematica e contrattazione cibernetica, cit., p. 258 ss. Sul tema dell’autonomia privata procedimentale si rimanda, amplius, a A.M. Benedetti, Autonomia privata procedimentale. La formazione del contratto tra legge e volontà delle parti, Torino, 2002, passim.

Cessione crediti fiscali

procedure celeri

 

[38] Sull’applicabilità della disciplina dell’errore ai contratti conclusi mediante sistemi di IA si rimanda, amplius, a Bravo, Contrattazione telematica e contrattazione cibernetica, cit., p. 200 ss. e 210 ss.

[39] Bravo, Esplorando le implicazioni giuridiche dell’Intelligenza Artificiale nei contratti, cit.

[40] Bravo, Esplorando le implicazioni giuridiche dell’Intelligenza Artificiale nei contratti, cit. e, prima ancora, Id., AI e autonomia contrattuale, relazione svolta nell’ambito del Convegno sul tema «Gli Stati Generali del Diritto di Internet e dell’IA», organizzato dalla LUISS e dalla rivista Diritto di Internet, a Roma, nei giorni 14-16 dicembre 2023.

[41] Si veda, in primis, Council of Europe, Framework Convention on Artificial Intelligence and Human, Rights, Democracy and the Rule of Law, Vilnius, 5 September 2024.

[42] Va da sé che, in difetto di un ulteriore intervento normativo che disciplini tali aspetti, la ricostruzione è rimessa all’interprete, facendo leva sul principio di unitarietà e completezza dell’ordinamento giuridico, su cui v. Galgano, Trattato di diritto civile, cit., I, p. 126; A.G. Conte, Saggio sulla completezza degli ordinamenti giuridici, Torino, 1962.

[43] Art. 50, par. 1, AI Act.

[44] Si ricorda che, ai sensi dell’art. 3, punti nn. 3 e 4, dell’AI Act, mentre il «fornitore» è definito come «una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che sviluppa un sistema di IA o un modello di IA per finalità generali o che fa sviluppare un sistema di IA o un modello di IA per finalità generali e immette tale sistema o modello sul mercato o mette in servizio il sistema di IA con il proprio nome o marchio, a titolo oneroso o gratuito», il «deployer» è invece definito come «una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale».

Conto e carta

difficile da pignorare

 

[45] Cfr. art. 50, par. 2, AI Act, in forza del quale «I fornitori di sistemi di IA, compresi i sistemi di IA per finalità generali, che generano contenuti audio, immagine, video o testuali sintetici, garantiscono che gli output del sistema di IA siano marcati in un formato leggibile meccanicamente e rilevabili come generati o manipolati artificialmente. I fornitori garantiscono che le loro soluzioni tecniche siano efficaci, interoperabili, solide e affidabili nella misura in cui ciò sia tecnicamente possibile, tenendo conto delle specificità e dei limiti dei vari tipi di contenuti, dei costi di attuazione e dello stato dell’arte generalmente riconosciuto, come eventualmente indicato nelle pertinenti norme tecniche. Tale obbligo non si applica se i sistemi di IA svolgono una funzione di assistenza per l’editing standard o non modificano in modo sostanziale i dati di input forniti dal deployer o la rispettiva semantica, o se autorizzati dalla legge ad accertare, prevenire, indagare o perseguire reati».

[46] L’obbligo in questione, nel caso di contrattazione mediante sistemi di IA, non è in grado di offrire un’adeguata tutela per le parti coinvolte nella formazione del contratto mediato dall’uso dell’intelligenza artificiale, sia perché l’obbligo di rendere rilevabile la circostanza che il contenuto è oggetto di generazione o manipolazione artificiale grava sul fornitore e non sul deployer o, comunque, sul soggetto più prossimo all’attività contrattuale, sia perché l’obbligo de quo si traduce in un’avvertenza automatica e del tutto generica sulla sola circostanza che i contenuti sono stati generati o manipolati (modificati) tramite il sistema di IA, senza però che risulti un livello di maggior dettaglio (ad esempio quali siano le istruzioni di input, oppure le modifiche apportare rispetto ad un precedente contenuto o, ancora, quale sia la fonte dei contenuti modificati in caso di “manipolazione”: elementi, questi, che potrebbero avere rilevanza nelle vicende sulla formazione del contratto con sistemi di IA).

[47] Si veda, in tal senso, l’art. 50, par. 3, dell’AI Act, ove testualmente si prevede che «I deployer di un sistema di riconoscimento delle emozioni o di un sistema di categorizzazione biometrica informano le persone fisiche che vi sono esposte in merito al funzionamento del sistema e trattano i dati personali in conformità dei regolamenti (UE) 2016/679 e (UE) 2018/1725 e della direttiva (UE) 2016/680, a seconda dei casi. Tale obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica e il riconoscimento delle emozioni autorizzati dalla legge per accertare, prevenire o indagare reati, fatte salve le tutele adeguate per i diritti e le libertà dei terzi e conformemente al diritto dell’Unione».

[48] Si pensi ad esempio al caso in cui un deployer metta a disposizione il proprio sistema di IA agli utenti, che ne facciano uso per porre in essere autonomi processi decisionali in proprio favore, nei confronti di altri utenti (come potrebbe avvenire ad esempio nel caso in cui un deployer organizzi un sistema di contrattazione AI-based nell’ambito di un portale di commercio elettronico, che permetta agli utenti della propria piattaforma di concludere tra loro l’attività contrattuale, con processi decisionali non imputabili direttamente al deployer, ma all’utente che si avvalga del sistema organizzato dal deployer medesimo).

[49] Un esempio può riguardare il caso in cui le istruzioni impartite per la conclusione del contratto richiedano di monitorare le offerte disponibili entro un lasso temporale più o meno circoscritto, per fruire di eventuali effetti benefici derivanti da fluttuazioni del mercato (come avviene nel mercato azionario) o di promozioni commerciali (come avviene nel mese di novembre per il “black Frieday”, il “cyber Monday” ed altre offerte analoghe volte a stimolare l’impulso agli acquisti in vista del periodo natalizio o in altri periodi significativi).

[50] Art. 22, par. 1, GDPR.

[51] Art. 22, par. 2, GDPR.

[52] Art. 22, par. 3, GDPR.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link