1. Introduzione
Questo articolo è nato per due ragioni: la prima collegata alla pratica di assessment e la seconda relativa alla preparazione di un lavoro accademico.
In primo luogo, sul forum Jiscmail della Psicologia dei Costrutti Personali (da ora in poi PCP) era emersa una questione: una studentessa e il suo supervisore si interrogavano su quale posizione metodologica adottare approcciando gli aspetti fenomenologici di un argomento che poteva beneficiare di un approccio costruttivista; l’esaminatore esterno, tuttavia, aveva esperienza solo in ambito positivista.
Una problematica simile era stata sollevata al XXI Congresso internazionale PCP svoltosi presso l’Università di Hertfordshire. A una studentessa era stato suggerito di evitare un approccio costruttivista in virtù del significativo disaccordo tra accademici riguardo alla combinazione di paradigmi di ricerca differenti.
In secondo luogo, il Direttore accademico della Business School di Edimburgo mi aveva contattato per aggiungere del materiale sui metodi qualitativi al testo di riferimento di 250 pagine per lo studio a distanza, Introduction to Business Research vol. 3, utilizzato dagli studenti durante la fase sperimentale del dottorato in Business Administration della scuola.
Chiaramente il compito non è stato così semplice. Aggiungere materiale a un testo di mentalità profondamente positivista e di approccio quantitativo – per una scuola che gestisce i master a distanza e i programmi di dottorato più grandi al mondo e lo fa da una città immersa nella filosofia sociale di David Hume e nell’economia classica di Adam Smith – necessitava di revisioni al materiale di base degli altri due volumi: uno sul metodo di ricerca e uno relativo al riesame della letteratura e allo sviluppo della teoria.
L’incarico ha richiesto un paio d’anni e lo sviluppo di una posizione nei confronti della metodologia che, pur non risolvendo le profonde questioni epistemologiche e ontologiche che ancora pongono in disaccordo gli accademici (vedi in particolare Bryman & Bell, 2015, p. 642), fornisca una cornice adeguatamente precisa, in cui gli studenti possano trovare risposte (anche se non del tutto risolutive: vedi la discussione di seguito).
Quello che segue è un esercizio di socialità: un viaggio nella mente dell’esaminatore esterno.
2. La posizione dell’esaminatore
È ragionevole considerare l’esaminatore esterno come il supervisore di dottorato dello studente: qualcuno con buona volontà, che cerca un risultato soddisfacente della valutazione del documento di tesi e della successiva discussione orale.
Sebbene l’esaminatore non provenga da un background costruttivista, o specificamente PCP, egli dovrebbe essere presumibilmente consapevole delle eventuali alternative al pensiero positivista; potrebbe avere delle riserve sulle modalità con cui si ottiene il rigore quando non si utilizza l’atteggiamento tradizionale ipotetico-deduttivo, basato sull’ipotesi nulla; inoltre, dovrebbe aver sentito del dibattito circa i “metodi misti” e dovrebbe verosimilmente conoscere il Journal of Mixed Methods Research.
Ora, la nozione di “metodi misti”, come la definizione stessa suggerisce, cerca di evitare di dover scegliere tra alternative, dove una è appropriata e l’altra inappropriata a una particolare domanda di ricerca.
Per individuare in modo opportuno la combinazione o l’equilibrio tra i metodi (e le tecniche) di ricerca più adeguati, si tende invece a discutere nei termini di tre questioni piuttosto ampie e generiche, utilizzando tre diversi costrutti, ovvero:
– qualitativo vs quantitativo;
– soggettivo vs oggettivo;
– costruttivista vs positivista.
3. I tre costrutti
3.1 Qualitativo vs quantitativo
Questa particolare dimensione di contrasto non dovrebbe creare alcuna difficoltà al costruttivista kelliano e uno studente che adotti simili presupposti dovrebbe essere in grado di affrontare due punti.
In primo luogo, può far notare che, di fatto, non c’è mai la necessità di scegliere tra i due approcci, poiché tutto il discorso prevede un’integrazione tra i due. L’analisi del contenuto costruttivista maggiormente basata sulla fenomenologia, che cerca di categorizzare diversi tipi di significato, ottiene le sue informazioni esaminando la loro importanza relativa – attraverso una sorta di conteggio o un qualche tipo di scala. Viceversa, il tentativo più statisticamente basato sulla distribuzione della varianza – ad esempio l’analisi fattoriale – ottiene le sue informazioni mediante il giudizio interpretativo del ricercatore, che ricorre alla propria esperienza e conoscenza per proporre un nome per il fattore che sta alla base della comunanza statistica tra le variabili che sono state raggruppate dalla procedura.
Il secondo punto richiederà un’introduzione sulla teoria dei costrutti personali, in relazione ai concetti con i quali l’esaminatore potrebbe non avere familiarità e che dovrebbero essere attentamente affrontati dal candidato nel capitolo sulla metodologia. Se i dati si riferiscono ai significati espressi in una griglia di repertorio, il significato degli elementi può essere espresso solo combinando il contenuto qualitativo di ogni particolare costrutto con aspetti più quantitativi, espressi in termini numerici, relativi al polo emergente o al polo di contrasto.
Questa è, in effetti, un’affermazione piuttosto profonda, poiché Kelly insiste sul fatto che il significato non risiede in una singola descrizione, disponibile nel polo emergente del costrutto, ma nella dimensione espressa dal contrasto tra polo implicito vs polo emergente; il significato è quindi definito da entrambi i poli in termini binari o come una posizione numericamente scalare tra i due.
3.2 Soggettivo vs oggettivo
È probabile che l’esaminatore, nel riconoscere la legittimità di epistemologie altre dall’applicazione positivista del metodo ipotetico-deduttivo agli eventi esterni basato su un’ontologia realista, cercherà di indagare quanto lo studente abbia compreso questa distinzione. Il candidato è un pensatore negligente o il suo ragionamento è rigoroso?
In particolare, apprezzerà un’affermazione chiara da parte dello studente relativa al suo posizionarsi in qualche punto tra gli estremi del solipsismo e del realismo ingenuo.
Sì, i fenomeni studiati non sono “eventi là fuori”; sono attive costruzioni, anche nella misura in cui è l’osservatore, con una storia particolare, a definire cosa sia un “evento” degno di attenzione (Bennett, 2002; Shotter, 2002). Ma se l’osservatore è un ricercatore, quali evidenze abbiamo a disposizione sul processo di costruzione? L’analisi evita il solipsismo attraverso un esplicito controllo sull’affidabilità della categorizzazione e della codifica del costrutto? Offre una triangolazione rispetto ai risultati di altre tecniche? C’è un ragionamento che dimostri che lo studente comprende ciò che si intende per tecnica bricolage (cfr. ad esempio Kincheloe, 2001) e la sua posizione riguardo alla convenzionale “generalizzazione analitica” (Yin, 2014, p. 68)?
Per quanto riguarda la posizione realista, è auspicabile che l’esaminatore sia a conoscenza dell’epistemologia realista critica, utilizzata dai ricercatori dei “metodi misti” (vedi Journal of Mixed Methods Research, passim) e utilmente presentata in testi come Maxwell (2012); tuttavia, egli potrebbe non essere a conoscenza della nozione di “alternativismo costruttivo” (Kelly, 1963, pp. 3-45). A questo punto, un’attenta asserzione della posizione di Kelly e la sua centralità rispetto a qualsiasi prospettiva basata sulla Teoria dei Costrutti Personali (PCT) sulla natura dei fenomeni studiati, diviene essenziale ed è solitamente posta verso la fine della rassegna della letteratura o all’inizio del capitolo separato sulla metodologia. Il resoconto breve fornito da Chiari & Nuzzo (2003) è utile in tal senso, con la sua enfasi sulla comprensione dei fenomeni come impresa interattiva e non osservazionale.
Questa è una posizione più radicale rispetto a quella realista critica e l’esaminatore potrebbe aver necessità di esserne messo al corrente, attraverso un’argomentazione accuratamente preparata e referenziata.
L’argomentazione potrebbe rimandare al lavoro di Karl Weick (1993), il cui concetto di sensemaking corrisponde in molti aspetti a quello del “costruire” di Kelly, e il cui lavoro potrebbe risultare più familiare rispetto al pensiero kelliano a un esaminatore che provenga dall’ambito aziendale/manageriale.
3.3 Costruttivista vs positivista
Finora, la posizione presa è che né qualitativo vs quantitativo, né soggettivo vs oggettivo rappresentino una scelta necessaria tra antinomie ontologiche: come per qualsiasi costrutto, è una questione di grado. Tuttavia, la distinzione costruttivista – positivista rappresenta, sì, una scelta.
L’approccio costruttivista è fenomenologico e affronta le questioni così come sono intese da entrambi i partecipanti: la persona oggetto della ricerca e la persona che la conduce. Questo approccio cerca di concepire prospettive che siano coerenti con l’evidenza.
Al contrario, l’approccio positivista è realista, si occupa di variabili considerate come esistenti indipendentemente dal modo in cui sono percepite, e governate da leggi la cui natura è la stessa a prescindere dall’osservatore; questo approccio cerca di scoprire verità.
Le due posizioni esprimono assunti ontologici reciprocamente contraddittori e a un certo punto si dovrà adottare l’una o l’altra, non è possibile seguire entrambe.
4. Due tipi di confusione
Sono possibili due tipi di disorientamento in ciò che finora è stato detto.
4.1 Confusione ontologica
Essa identifica la distinzione ontologica tra tema fenomenologico e positivista con la natura dei dati, quando essi stessi sono in gran parte qualitativi o per lo più quantitativi.
Per esempio, autori rispettati come Miles & Huberman (2014) offrono tecniche sviluppate dettagliatamente attraverso le quali il ricercatore, se lo desidera, può identificare le variabili che egli stesso ritiene essere alla base della serie di dati qualitativi che ha raccolto; ma questa è una questione distinta rispetto all’analisi del contenuto dei significati e della loro frequenza che il resoconto di Miles e Huberman presenta.
Una conclusione avventata porterebbe a dire che la possibilità di combinare dati quantitativi e qualitativi nella stessa ricerca la renda contemporaneamente sia positivista che costruttivista.
Non è questo il caso. È possibile esaminare i significati in una serie di dati, al fine di comprendere le posizioni fenomenologiche assunte dalle persone coinvolte nella ricerca e capire il modo in cui queste opinioni veicolino e influenzino i punti di vista di diversi stakeholders su una serie di questioni, offrendo questo come un risultato completo della ricerca, in uno studio che è in tutto e per tutto costruttivista.
In alternativa, è possibile esaminare i contenuti di una serie di dati al fine di identificare il modo in cui la varianza potrebbe essere distribuita in un gruppo di variabili precedentemente identificate, e offrire questo assetto come risultato completo di ricerca, in uno studio del tutto positivista.
Lo studio è di un tipo o dell’altro; non può essere entrambi contemporaneamente.
Uno dei modi per risolvere il dilemma creato dalla ricerca delle variabili di Miles e Huberman è stato quello di adottare l’approccio pragmatico, il quale riconosce il dilemma e al contempo lo ignora (cfr. per esempio Morgan, 2007); oppure suggerisce che in un programma di ricerca sia possibile separare la raccolta di dati qualitativi e quantitativi nel tempo e che, in tal modo, “è possibile essere sia costruttivisti che positivisti ma in sequenza”, così da evitare l’adozione contemporanea di posizioni ontologiche incompatibili (probabilmente l’affermazione più evidente di questa convinzione è fornita da Edmondson & McManus, 2007. È una posizione debole, poiché si basa erroneamente sul presupposto che non si possano combinare analisi qualitative e quantitative allo stesso tempo).
Bryman & Bell (2015) citano Morgan (1998) a supporto dell’approccio sequenziale; entrambi, e la revisione di Shannon-Baker (2015), meritano considerazione.
4.2 Confusione terminologica
Il secondo tipo di confusione riguarda l’uso superficiale, sconsiderato e, purtroppo, abituale dei termini “metodo” e “tecnica” come sinonimi. Molti degli esempi utilizzati da autori di metodologia nel settore aziendale e del management in particolare – cfr. per esempio Bryman e Bell (2011; 2015), Easterby-Smith et al. (2015, p. 95), Saunders et al. (2016) – utilizzano il termine “metodo” quando stanno parlando di tecniche adottate per raccogliere e analizzare i dati.
Relativamente pochi – Corbyn & Strauss (2015), Jankowicz (2005, p. 220), Jonker & Pennink (2010, pp. 21-25), eccezioni degne di nota – operano questa distinzione.
5. Una risoluzione
La ragione per cui questo è importante è che molta, se non tutta, la confusione discussa precedentemente potrebbe essere risolta attraverso la distinzione proposta da Bennet (1991). Semplicemente:
- le tecniche sono procedure per raccogliere i dati e analizzarli. Per esempio: intervista strutturata, scala di valutazione, questionario a scelta-multipla. Ne possiamo trovare centinaia, se non migliaia;
- i metodi sono approcci diversi per verificare una credenza o testare un’ipotesi; in altre parole, ricavare informazioni da quei dati. Per esempio: metodo interpretativo, Case Study, esperimenti controllati, sondaggi. Ce ne sono relativamente pochi.
Diventa evidente, sia dalla chiara dimostrazione di Bennet sia dall’utilizzo che ne fanno Jankowicz (2005), Corbyn & Strauss (2015) e Jonker & Pennink (2010), che le tecniche possono essere qualitative, quantitative e – nel caso delle griglie di repertorio – necessariamente un’integrazione di entrambe. Fintanto che le regole procedurali di base e i vincoli per la raccolta e l’analisi dei dati sono rispettati, non c’è molta difficoltà nel combinare entrambe.
Tuttavia, non si può dire lo stesso dei metodi sopra definiti, poiché metodi diversi implicano diversi presupposti epistemologici e ontologici, in alcuni casi reciprocamente contraddittori.
Sono richiesti al ricercatore differenti attività, priorità e valori, se i diversi metodi devono essere applicati in modo sufficientemente rigoroso da far sì che emergano informazioni utili.
La tabella 1 elenca alcuni dei metodi trattati nel lavoro originale di Bennet, insieme alla Grounded Theory e alla ricerca-azione non affrontate nel suo articolo. Quando si esaminano metodi diversi è chiaro che mescolarli potrebbe risultare problematico. Non solo alcuni si adattano più comodamente all’interno di un paradigma costruttivista e altri all’interno di un paradigma positivista, ma si affidano a diverse forme di dimostrazione di efficacia, differenti procedure per il raggiungimento del rigore, e si basano su indicatori di prova differenti.
Per esempio, mentre il metodo sperimentale cerca di distribuire la varianza attraverso diverse variabili, per creare una struttura esplicativa nella quale l’effetto delle variabili potenzialmente confondenti risulta controllato da un disegno di ricerca specifico, al fine di rendere le previsioni sempre più esplicite e più generalizzabili, il metodo del Case Study triangola i dati da una varietà di fonti utilizzando una generalizzazione analitica (collegamenti data-theory che funzionano come precedentemente previsto, Yin, 2014), in modo da fornire conclusioni che la comunità degli studiosi e dei professionisti possa trovare plausibili e utili.
Credere che il metodo sperimentale sia, in un certo senso, migliore del Case Study o di qualsiasi altro metodo, presuppone che esista un solo standard di rigore: quello associato alle scienze fisiche, biologiche e ingegneristiche. Infatti, ogni metodo differente sviluppa, applica e preserva le proprie distinte concettualizzazioni circa la misurazione per proteggere il proprio approccio al rigore. Da notare i termini tecnici e i concetti coinvolti: “distribuzione della varianza”, “controllo”, “ipotesi nulle e alternative” sono essenziali al metodo sperimentale; “triangolazione” e “generalizzazione analitica” al Case Study; “campionamento rappresentativo”, “stratificazione” e “tassi di risposta” al sondaggio. La Grounded Theory affronta la letteratura come dato e nella sua forma originale, più radicale (Glaser & Strauss 1967), minimizza la necessità di costruire una rassegna sistematica della letteratura prima dell’inizio del lavoro empirico.
Tabella 1: Sei metodi comuni nella ricerca aziendale e gestionale | |||
Metodo | Natura della prova | Rigore ottenuto da… | “Indicatore di prova” |
Interpretativo | Dati e giudizio del ricercatore sul loro significato rispetto alla teoria formale e alle aspettative informali | Attenta formulazione delle ipotesi; considerazioni coerenti con i presupposti | Descrizione “densa”: i partecipanti possono prendere parte all’analisi |
Case study | Descrizione “ricca”: varietà delle fonti dei dati che rappresentano i diversi stakeholders; campionamento soggettivo | Generalizzazione analitica secondo differenti presupposti teorici (Yin, 2014); triangolazione | Accordo sui contributi nella comunità di ricercatori e professionisti |
Sondaggio | Frequenza relativa entro/attraverso il campione stratificato o i sottogruppi di campioni | Il campione rappresenta precisamente le caratteristiche della popolazione; ipotesi sulla grandezza del campione | Consenso emergente dai sondaggi ripetuti su campioni simili/correlati |
Sperimentale | Distribuzione della varianza attraverso differenti variabili in una struttura esplicativa | Controllo delle variabili del moderatore attraverso l’attento disegno di ricerca basato su un approccio ipotetico-deduttivo | Miglioramento della predittività che emerge da una maggiore precisione/ampliamento dell’ambito della teoria |
Ricerca azione | Varietà delle prestazioni indagate, considerate rilevanti dai partecipanti (spesso, un gruppo di lavoro integro) | Confronto ripetuto dei dati con l’interpretazione fino a quando tutti i casi non vengono spiegati dai dati stessi | Miglioramento misurabile delle prestazioni nelle unità organizzative studiate |
Grounded Theory | Supporto sistematico della teoria emergente | Criteri di codifica per l’Analisi del contenuto; precisione dei dati misurati e dell’inferenza nelle analisi | Teoria finale utilizzabile anche con i dati raccolti successivamente su nuove questioni emergenti |
Note:
3. L’affidabilità delle procedure di analisi dei dati deve essere stabilita in tutti e sei i metodi affinché possano emergere informazioni valide/credibili. Fonte: Jankowicz et al. 2016. |
Tabella 1
6. Conclusione
Dovrebbe essere ormai chiaro come operi la confusione descritta precedentemente, portando alla situazione insoddisfacente nella quale i “metodi misti” sono considerati un problema al punto che molte riviste (cfr. Journal of Mixed Methods; Qualitative Enquiry) investono tempo in valutazioni agonizzanti. La stessa tecnica può essere utilizzata con metodi differenti ed è necessario distinguere tra i due termini per pensare con chiarezza.
L’intervista strutturata, il questionario e le tecniche di osservazione possono essere utilizzati con tutti e sei i metodi, ma le loro molte variazioni distinte riflettono i differenti vincoli imposti dal metodo nel generare informazioni dai dati grezzi raccolti attraverso la tecnica – non che non possano essere combinati perché i dati sono qualitativi o quantitativi.
Gran parte della confusione relativa ai “metodi misti” potrebbe essere risolta se al suo posto fosse utilizzato il termine “tecniche miste”, dal momento che il dibattito verte, appunto, sulle tecniche miste così come descritte sopra. Nel frattempo, i dottorandi e i loro supervisori dovrebbero valutare se quest’ultimo termine possa essere più utilmente impiegato sostituendo il precedente (“metodi misti”), in particolar modo quando il dibattito dipende da se e come combinare le tecniche qualitative e quantitative.
Bibliografia
Bennett, J. (2002). Events and their Names (2nd ed.). Oxford: Clarendon Press.
Bennett, R. (1991). How is management research carried out? In N. Craig Smith & P. Dainty (Eds.), The Management Research Handbook (pp.86- 103). London: Routledge.
Bryman, A., & Bell, E. (2011). Business Research Methods (3a ed.). Oxford: Oxford University Press.
Bryman, A., & Bell, E. (2015). Business Research Methods (4a ed.). Oxford: Oxford University Press.
Chiari, G., & Nuzzo, M.L. (2003). Kelly’s philosophy of constructive alternativism. In F. Fransella (Ed.), International Handbook of Personal Construct Psychology (pp. 41-50). Chichester: Wiley.
Corbyn, J., &Strauss A.L. (2015). Basics of Qualita-tive Research: Techniques and Procedures for Developing Grounded Theory (4a ed.). London: Sage.
Easterby-Smith, M., Thorpe, R., & Jackson, P. (2015). Management and Business Research (5a ed.). London: Sage.
Edmondson, A.C., & McManus, S.E. (2007). Methodological fit in management field research. Academy of Management Review, 32(4), 1155-1179.
Kelly, G.A. (1963). A Theory of Personality: the Psychology of Personal Constructs. London: Norton.
Glaser, B.G., & Strauss, A.L. (1967). The Discovery of Grounded Theory: Strategies for Qualitative Research. New York: Aldine.
Jankowicz, A.D. (2005). Business Research Projects (4a ed.). Andover: South-Western/ Cengage.
Jankowicz, A.D., O’Farrell, P., & Wallace, W. (2016). Introduction to Business Research vol. 1: The Research Proposal. Edinburgh: Edinburgh Business School.
Jonker, J., &Pennink, B. (2010). The Essence of Research Methodology: a Concise Guide for maters and PhD Students in Management Science. London: Springer Verlag.
Kincheloe, J.L. (2001). Describing the bricolage: conceptualizing a new rigor in qualitative re-search. Qualitative Enquiry 7, 679-692.
Maxwell, A. (2012). A Realist Approach for Qualitative Research. London: Sage.
Miles, M.B., & Huberman, A.M. (2014). Qualitative Data Analysis: a Methods Sourcebook (3a ed.). London: Sage.
Morgan, D.L. (1998). Practical strategies for combining qualitative and quantitative methods: applications for health research. Qualitative Health Research 8, 362-376.
Morgan, D.L. (2007). Paradigms lost and pragmatism regained. Journal of Mixed Methods Research 1, 48-76.
Saunders, M., Lewis, P., & Thornhill, A. (2016). Research Methods for Business Students (7a ed.). Harlow: Pearson Education.
Shannon-Baker, P. (2015). Making paradigms meaningful in mixed methods research. Journal of Mixed Methods Research, March.Doi:10.1177/1558689815575861. Consultato in data 8 ottobre 2016 da: http://mmr.sagepub.com/content/10/4/319.abstract.
Shotter, J. (2002). Responsive understandings in living encounters: re-figuring intellectual enquiry. In J. D. Raskin & S. K. Bridges (Eds.), Studies in Meaning: Exploring Constructivist Psychology (pp. 289-306). New York: Pace University Press.
Weick, K.E. (1993) The collapse of sensemaking in organizations: the Mann Gulch Disaster. Administrative Science Quarterly 38, 628-652.
Yin, R.K. (2014). Case Study Research: Design and Methods (5a ed.). London: Sage.
Nota sull’autore
Devi Jankowicz
Heriot-Watt University, Edinburgh, UK
Devi Jankowicz ha conseguito la laurea in Psicologia (1969) seguita da un dottorato in Management Cybernetics (1975), entrambi presso la Brunel University. È stato docente di “Comportamento organizzativo” e “Metodi di ricerca” presso varie università in Irlanda, Stati Uniti, Polonia e Regno Unito, e ha contribuito alla formazione manageriale sviluppando due programmi MBA e un programma DBA prima di entrare a far parte della facoltà della Edinburgh Business School dove insegna i programmi MSC e DBA.
I suoi interessi di ricerca includono il trasferimento della conoscenza oltre i confini culturali, l’uso di ambienti virtuali nello studio a distanza, l’applicazione della teoria costruttivista e delle sue tecniche in ambito aziendale e manageriale. Ha al suo attivo circa 90 pubblicazioni, tra cui quattro manuali sui metodi di ricerca in ambito aziendale, uno dei quali tradotto anche in cinese. Offre consulenze a JPL/NASA, Unilever, Rolls-Royce (Bristol) e al Servizio per l’impiego nel Regno Unito. Ha contribuito ai seminari di briefing ministeriale nel Regno Unito e ha svolto il ruolo di esperto dell’UE per il Ministero dell’Istruzione in Polonia.
Nota
- Ringraziamo gli editori della rivista Personal Construct Theory & Practice per aver gentilmente concesso la traduzione dell’articolo. L’originale è disponibile al link http: //www.pcp-net.org/journal/pctp17/jankowicz17.pdf. Jankowicz, D. (2017)., Construing the doctoral examiner: what the doctoral student should know. Personal Construct Theory & Practice, 14, 99-105. ↑
Related posts:
- Dal prevenire al divenire
- Intervista a Pam Denicolo: una ricercatrice fuori dagli schemi
- Helen Jones – un ricordo personale
- A che gioco giochiamo?
- La scuola italiana di fronte alla complessità
- Lo schizococco
- Costruttivismo e strategia d’impresa
- Silvio Ceccato e la Scuola Operativa Italiana: un costruttivismo innovativo e radicale?
- Il dolore fisico dal punto di vista di chi soffre
- La Psicologia dei Costrutti Personali: umanesimo senza un Sé