Home 2011 5 Settembre
5 settembre
Problemi per attuare la riforma PDF Stampa E-mail

La legge 240/2010 (riforma Gelmini) è niente affatto attuata ed è molto probabile che non sarà attuata in questa legislatura e in questa forma. Affinché l’articolato normativo possa diventare pienamente operativo, occorre un non meglio precisato numero di decreti attuativi: sebbene possa apparire a dir poco strano, neppure le comunicazioni ufficiali del ministero li quantificano con esattezza. Sul sito del ministero, a fine luglio si leggeva: “Dei 38 provvedimenti previsti (decreti legislativi, regolamenti, decreti ministeriali), 32 sono già stati firmati dal ministro e a breve saranno emanati anche i restanti 6. 7 decreti saranno approvati in via definitiva entro luglio e i rimanenti entro fine settembre”. Si capisce che occorrono 38 decreti attuativi e si legge che, complessivamente, saranno più di 38, inclusi non meglio specificati provvedimenti “rimanenti” (quali?). Contemperando i numeri governativi con quelli forniti dall’opposizione, è verosimile pensare che siano intorno ai quaranta. A oggi, soltanto uno risulta pubblicato in Gazzetta ufficiale.

Le motivazioni per le quali è ragionevole attendersi che la ‘riforma’ non andrà a regime (o che verrà rinviata alla prossima legislatura) sono fondamentalmente due.

1) La 240/2010 è una legge estremamente confusa che, da un lato, regolamenta in modo colbertistico, dall’altro, è estremamente vaga. Vaga a tal punto che, a sei mesi dalla sua pubblicazione in Gazzetta ufficiale, il Consiglio universitario nazionale ha fatto rilevare che non è ancora chiaro chi valuterà i professori che saranno sorteggiati per far parte delle commissioni per l’abilitazione nazionale. La legge prevede la valutazione dei loro curricula, ma appunto non individua il soggetto deputato a valutare. E’ anche una legge fatta male. Alcuni esempi: la disposizione che vieta a un docente universitario di partecipare ai concorsi per le abilitazioni nazionali nel caso in cui non abbia superato la selezione nelle tornate precedenti è stata respinta dal Consiglio di Stato, con la motivazione (facilmente comprensibile anche per i non addetti ai lavori) che non si può impedire a nessuno di partecipare a un concorso pubblico. Il decreto sul diritto allo studio è fermo alla Conferenza stato-regioni: l’unica certezza è che da quella sede non arriverà la copertura finanziaria, demandata al governo. Misteri aleggiano sulla ratio che ha portato all’aggregazione dei settori disciplinari, ritenuti ‘eccessivi’ perché tautologicamente eccessivi (eccessivi rispetto a quale numerosità ‘ottimale’? Calcolata come?).

2) Sussistono poi problemi di copertura finanziaria, che per una riforma pensata a costo zero, sono appunto problemi. Fra questi, i costi relativi alla messa in funzione dell’Agenzia di Valutazione della Ricerca (ANVUR), che dovrà disporre di sedi e personale qualificato per svolgere la propria funzione di valutazione della ricerca universitaria, i costi per le procedure di valutazione di ben 70mila studiosi italiani, da realizzarsi in 18 mesi, i costi per l’espletamento dei concorsi, per un importo complessivo che non è stato stimato su fonti ufficiali.

Dal 2008 al 2011 le somme stanziate per le università pubbliche sono passate da 7.41 miliardi di euro a 6.57 (-11.31%), per ridursi ulteriormente nel 2012 a 6.49 (-12.40) e arrivare nel 2013 con 6,45 miliardi (-12.95). La camera dei deputati, nella relazione tecnica del 29 giugno 2011, ha stimato un costo annuo per le procedure di abilitazione scientifica nazionale (pre-requisito per l’accesso alla docenza) pari a €17.000.000. Si può ricordare che il ministro Gelmini ha promesso concorsi per professore di seconda fascia ai ricercatori, nella fase più acuta della loro protesta. A distanza di sette mesi, la promessa rimane tale. Si consideri che, per legge, i ricercatori possono non svolgere attività didattica e che, a fronte di questo, si stima che, nel 2015, 14mila docenti su 57mila andranno in pensione. E’ difficile prevedere quali saranno gli effetti sull’offerta formativa, e sulla sua qualità, dal momento che il numero di corsi di studio è già stato ridotto e il ministero non prevede ulteriori riduzioni.
(Fonte: G. Forges Davanzati, sbilanciamoci.info 21-08-2011)

 
I pro e i contro di Peer-Review e Bibliometria. Un sistema di supporto alla valutazione della ricerca. necessità della Field Standardization PDF Stampa E-mail

Stanno diventando sempre più diffusi gli esercizi nazionali di valutazione della ricerca, che coinvolgono università ed enti pubblici di ricerca. Tuttavia “l’esigenza della valutazione”, unanimemente condivisa a livello teorico, diviene problematica quando bisogna decidere con quali metodi realizzarla in pratica. Tradizionalmente il metodo più adottato è stato il cosiddetto peer-review, che prevede la valutazione da parte di esperti dei prodotti di ricerca sottomessi a valutazione dalle istituzioni. Recentemente, lo sviluppo delle tecniche bibliometriche, che si fondano sull’analisi quantitativa delle citazioni ricevute da articoli pubblicati su riviste scientifiche internazionali, ha indotto diversi governi a introdurre la bibliometria, limitatamente alle cosiddette scienze dure, a supporto o in sostituzione della tradizionale peer-review.

In Gran Bretagna, i tradizionali Research Assessment Exercises, puramente peer-review, lasceranno il posto al prossimo Research Evaluation Framework, di tipo informed peer-review, dove i panel potranno avvalersi anche di indicatori bibliometrici per formulare il loro giudizio sui prodotti di ricerca sottomessi a valutazione da parte delle università. In Italia la Valutazione Triennale della Ricerca del 2006, anch’essa peer-review, sarà sostituita presumibilmente dalla Valutazione della Qualità della Ricerca (VQR), che adotterebbe un metodo ibrido: sarebbero i singoli panel, in base alla specificità della propria area disciplinare, a decidere se avvalersi unicamente della peer-review, della bibliometria o di entrambe, per valutare un numero di prodotti comunque limitato per singolo ricercatore. In Australia, invece, l’Excellence in Research for Australia, lanciato nel giugno 2010, nelle scienze dure valuta l’intero output di ricerca delle istituzioni, unicamente attraverso indicatori bibliometrici.

I pro e i contro di peer-review e bibliometria sono stati sviscerati in letteratura. Per quanto attiene alla valutazione del singolo output scientifico, dagli studi condotti emerge che, per quanto non si possa affermare quale dei due metodi sia migliore, esiste comunque una correlazione significativa e forte tra gli esiti di una valutazione peer-review e quelli di un esercizio puramente bibliometrico.

I forti limiti della peer-review negli esercizi nazionali di valutazione emergono, invece, quando la si applica alla valutazione comparata di individui, gruppi e organizzazioni di ricerca. Tali limiti scaturiscono dai vincoli di budget e di tempo, che impongono alla peer-review su larga scala di restringere la valutazione a una quota soltanto dell’output totale di ciascuna istituzione di ricerca.

La prima conseguenza di ciò è che la valutazione comparata peer-review può avvenire unicamente lungo la dimensione della qualità, ma non della produttività dei soggetti valutati, mentre è proprio la produttività l’indicatore per eccellenza dell’efficienza di qualsiasi sistema produttivo. La seconda è che i ranking finali dei soggetti valutati sono fortemente dipendenti dalla quota del prodotto valutato. La terza è che la selezione dei prodotti da sottomettere a valutazione può risultare inefficiente, a causa sia della difficoltà di individuare i prodotti realmente migliori, sia di eventuali comportamenti opportunistici di soggetti che potrebbero anteporre la visibilità dei propri prodotti al successo dell’intera organizzazione. Ciò avrebbe un effetto distorcente sui ranking finali e sulla loro capacità di rappresentare la qualità reale dei soggetti valutati. La quarta conseguenza è che le valutazioni peer-review non offrono alcuna informazione alle organizzazioni sulla performance individuale, che permetterebbe di allocare le risorse al loro interno in funzione del merito.

Con una quota limitata di prodotti valutati per ricercatore (tre sui sette anni in osservazione, stando alle anticipazioni relative al prossimo VQR italiano) è impossibile formulare giudizi di valore affidabili sui singoli scienziati. Se, infatti, l’obiettivo macro-economico è quello di allocare le risorse in maniera efficiente, non è sufficiente che i fondi siano attribuiti alle istituzioni in funzione del merito, ma è anche necessario che queste, a loro volta, li di-stribuiscano al loro interno secondo i medesimi criteri meritocratici. Per ultimo, i costi e i tempi di esecuzione della peer-review sono così ingenti da rendere la loro frequenza inadeguata per stimolare efficacemente il miglioramento del sistema ricerca.

Anche il metodo bibliometrico, basandosi sull’analisi citazionale, presenta delle limitazioni, legate in primis alla copertura delle basi dati bibliometriche in termini di prodotti scientifici censiti. Nelle scienze dure, comunque, il 95 per cento dei prodotti sottomessi dalle università al VTR risultava censito nella base dati bibliometrica Web of Science. Un altro limite è connesso al tempo necessario affinché le citazioni di una pubblicazione si accumulino e rappresentino quindi una variabile accurata del suo impatto. A parte forse le Scienze Matematiche, in altra occasione abbiamo potuto dimostrare che una finestra temporale di due anni è già sufficiente ad assicurare una valutazione accettabile dell’impatto. Considerando i pro e i contro di entrambe le metodologie, attraverso il loro confronto diretto, abbiamo quindi concluso che il metodo bibliometrico è di gran lunga preferibile al peer review in termini di accuratezza, robustezza, validità, funzionalità, costi e tempi di esecuzione.

In riferimento ai limiti sopra richiamati, abbiamo constatato, infatti, che, variando la quota dei prodotti valutati 8 volte, nell’area disciplinare di Scienze Fisiche, per esempio, solo 8 università su 50 non saltano di decile nel rank di performance. Confrontando poi la qualità bibliometrica dei prodotti presentati da ciascuna università al VTR rispetto a quelli presentabili, questa risultava inferiore alla mediana nel 29,6 per cento dei casi in Scienze Agrarie e Veterinarie, nel 26,5 per cento dei casi in Ingegneria Industriale e dell’Informazione, nel 24,8 per cento in Scienze Matematiche e Informatiche. Paradossalmente, se tutte le università avessero scelto i prodotti migliori, dato l’esiguo numero di prodotti richiesti (1 ogni 4 ricercatori in ruolo nell’area disciplinare), adottando l’algoritmo di valutazione utilizzato dal VTR, un’alta percentuale di università sarebbe risultata al primo posto a pari merito: da un minimo del 50 per cento in Scienze Agrarie a un massimo del 96 per cento in Scienze Chimiche.

Gli effetti di tutte queste distorsioni sono sintetizzabili nel confronto finale della classifica VTR con quella bibliometrica della produttività di ricerca degli atenei: le università che presentano salti di quartile tra le due classifiche variano da un minimo del 53 per cento delle valutazioni nelle Scienze Chimiche a un massimo del 77 per cento nelle Scienze Fisiche.

Se tanti e tali sono i limiti della peer-review, è inevitabile chiedersi perché i governi insistano con tale metodo. La risposta risiede, in molti casi, nella difficoltà di applicare le tecniche bibliometriche su larga scala. Cercheremo di illustrare in maniera semplice e sintetica queste difficoltà, che concernono essenzialmente la classificazione disciplinare degli autori e delle pubblicazioni, nonché l’attribuzione delle pubblicazioni ai veri autori.

È noto che gli ambiti di speculazione scientifica sono caratterizzati dalla diversa intensità di pubblicazione, vuoi per il diverso grado di copertura settoriale delle basi dati bibliometriche, vuoi per le diverse funzioni di produzione nelle varie discipline: un ricercatore in fisica, per esempio, produce in media 2, 3 volte il numero di pubblicazioni di un matematico. Da ciò discende la necessità di operare confronti di produttività tra ricercatori dello stesso settore disciplinare; ma mentre in Italia esiste una classificazione ufficiale degli universitari in settori scientifico-disciplinari, negli altri paesi questa non c’è. Inoltre, anche l’intensità di citazione varia da disciplina a disciplina: un articolo di matematica riceve in media, dopo otto anni, 4,4 citazioni; uno di biologia 16,3. Ma varia anche all’interno della medesima disciplina, tra un settore e un altro.

Da qui la necessità di eseguire, prima del confronto citazionale, la field-standardization, attraverso i seguenti passi: 1) classificare ciascuna pubblicazione nel settore di pertinenza, tra quelli indicizzati nella base dati bibliometrica sorgente; 2) calcolare la media o mediana delle citazioni ricevute da tutte le pubblicazioni dello stesso anno e settore; 3) dividere le citazioni di ciascuna pubblicazione per la media o mediana della di-stribuzione. Poiché un ricercatore pubblica in genere in ambiti scientifici diversi, per confrontare la produttività scientifica di due ricercatori, anche se afferenti al medesimo settore disciplinare, è necessario prima individuare tutta la loro produzione scientifica, standardizzarla e, quindi, procedere al confronto degli indicatori standardizzati. Da ciò discende che non è possibile confrontare la performance di ricerca di più organizzazioni se prima non si è misurata quella individuale dei ricercatori che vi afferiscono. Ma per misurare quest’ultima in maniera automatizzata occorre superare due ulteriori ostacoli: l’identificazione e omologazione delle varianti con cui gli autori di un articolo indicano la propria affiliazione; la disambiguazione della reale identità di un autore, dati i problemi di omonimia tipici di popolazioni di ampie dimensioni.

Ciò richiede evidentemente un’approfondita conoscenza del sistema paese da valutare.

Per l’Italia, questi ostacoli sono stati affrontati nel laboratorio di ricerca che fa capo agli autori, in cui è stato messo a punto un sistema di supporto alla valutazione della ricerca (www.disp.uniroma2.it/laboratorioRTT/Testi/Altro/DSS_Archivio.zip) su dati Web of Science. Tale sistema è, ad oggi, l’unico al mondo a fornire misure comparate di produttività standardizzata di singoli individui su scala nazionale: dieci università, un ente pubblico, tre fondazioni di ricerca e due governi regionali si sono già avvalsi del sistema. In altri paesi esperienze simili, condotte con criteri scientifici, sono limitate a valutazioni o di singole istituzioni di ricerca o di singola area disciplinare. Se in altri paesi, quindi, il ricorso al metodo peer-review negli esercizi nazionali di valutazione è inevitabile, a meno di richiedere a tutte le istituzioni di ricerca l’intera produzione scientifica come nel caso australiano, non lo è affatto in Italia e la scelta di tale metodo richiederebbe almeno una verifica da parte dell’Agenzia Nazionale di Valutazione (ANVUR), recentemente insediatasi.

Per quanto utili e desiderabili siano poi i confronti internazionali, dobbiamo accettare che lo stato dell’arte non consente di stilare classifiche attendibili della produttività di ricerca delle organizzazioni. Nonostante ciò, i media ci inondano in continuazione di classifiche di varia provenienza, che non hanno nulla di scientifico e si rivelano tanto inverosimili per l’Italia, quanto pericolose. Se, infatti, la teoria senza misurazioni è sterile, le misurazioni avulse dalla teoria possono essere diaboliche.

Francesco Coniglione, su “La Voce” del 19.11.2010, riportava la classifica delle università italiane per numero di piazzamenti nei maggiori otto ranking internazionali. In testa si trovavano le università Sapienza di Roma, Bologna, Pisa, Torino; mentre occorreva arrivare quasi in fondo per incontrare le Scuole Superiori Normale di Pisa e Sissa di Trieste; della Scuola Superiore S. Anna di Pisa nessuna traccia. Quale persona di buon senso in Italia potrebbe ritenere plausibili questi risultati? La mancata rispondenza dei risultati alle attese dovrebbe indurre i più accorti a interrogarsi sulla bontà del metodo di valutazione.

Un semplice esame degli indicatori utilizzati e del relativo peso nel determinare il posizionamento finale, rivela che tutte queste classifiche dipendono più o meno fortemente dalla dimensione degli atenei. Nella più discutibile di tutte, l’Academic Ranking of World Universities della Shanghai Jiao Tong University, oltre il 90 per cento del risultato di performance finale dipende dalla dimensione dell’ateneo. Anche laddove la dipendenza è meno forte, come nel caso dell’altrettanto noto Times Higher Education’s World University Ranking, tutte queste classifiche sono comunque inficiate dalla totale assenza della standardizzazione per settore degli autori e delle citazioni (field-standardization).

Più recentemente, hanno trovato particolare seguito i ranking delle migliori organizzazioni di ricerca italiane stilati da Via Academy, associazione di studiosi italiani in UK. Il ranking proposto scaturisce dalla somma degli h-index dei ricercatori a esse affiliati, che risultano tra i top 500 italiani per h-index estratto da Google Scholar. Oltre alla dipendenza dalla dimensione (non a caso ai primi quattro posti troviamo le Università di Padova, Bologna, Milano e il CNR) e all’assenza di standardizzazione (l’h-index, per definizione, non contempla alcuna field-standardization), i ranking sono ulteriormente distorti dall’inadeguatezza della fonte, Google Scholar, e dalla limitata quota dei ricercatori valutati sul totale della popolazione.

Se di valutazione della ricerca si tratta, si auspica che i metodi impiegati siano il frutto della ricerca stessa e non dell’improvvisazione, italiana o straniera che sia.
(Fonte: G. Abramo, C. A. D’Angelo, technologyreview.it 19-08-2011)
 
Rilievo e sfide dell'ANVUR PDF Stampa E-mail

L'Agenzia nazionale di valutazione del sistema universitario e della ricerca (Anvur) è un evento di grande portata. Tre aspetti ne segnano rilievo e sfide. Il primo: l'Anvur inizia a operare in un contesto deteriorato, nel quale "qualità, merito, trasparenza" suonano ormai come parole usurate, ripetute ossessivamente e con altrettanta sistematicità smentite nei fatti. Ad esempio, ci sono voluti quattro anni e mezzo per passare dalla legge istitutiva alla costituzione dell'Anvur; il fondo di finanziamento ordinario ha conosciuto una pesante riduzione e la compressione della quota di "premialità", e viene distribuito con crescente ritardo (clamoroso quello del 2010: a fine dicembre!). Il secondo: il regolamento dell'Anvur amplia di molto i suoi compiti rispetto alla legge. Alla valutazione della qualità di ricerca e didattica aggiunge quella delle strutture e dei corsi di studio, la definizione dei requisiti di risorse per l'istituzione e il permanere di università e corsi di studio, l'elaborazione di parametri per l'allocazione dei finanziamenti statali (e altro ancora). L'impressione è che l'amministrazione del sistema universitario e della ricerca riconosca il proprio collasso e affidi, impropriamente, all'Anvur un generale ruolo di supplenza, confinata però alla formulazione di pareri. Il terzo: l'Agenzia è un ircocervo. È altra rispetto al Miur, con personalità giuridica e adeguata autonomia (quando le previsioni normative saranno state attuate); ma non è un’Authority, perché ha funzioni consultive, non poteri di regolazione o sanzione né compiti di distribuzione di risorse "premiali". Il ruolo dell'Anvur si deciderà dunque sul campo, sarà stabilito dalla sua capacità di essere, rispetto al Miur, un soggetto terzo autorevole: terzo a cominciare dalla definizione del programma di lavoro; autorevole, perché la forza dei pareri che formulerà dipenderà dalla (e insieme costruirà la) propria reputazione.

Per questo è importante che l'Anvur disegni bene il proprio ruolo. Senza l'esigenza di marcare subito la sua presenza. La "veduta corta", l'attenzione alle urgenze (immancabili), il proposito di prestarsi per tappare i buchi di un’amministrazione statale deficitaria sono rischi da evitare. È alla definizione di un'impegnativa agenda, centrata su chiare priorità, che l'Anvur dovrebbe dedicare il suo primo impegno. Concentrandosi sulla core mission - valutare prodotti e risultati della ricerca e della didattica - e mettendo la sordina ad altri temi.

Sorprende che l'Anvur abbia deciso diversamente, esordendo con la proposta di "Criteri e parametri" per i concorsi universitari. L'argomento è lontano dalla sua missione; rientra nelle sue già troppo estese competenze soltanto se di esse si dà un'interpretazione larga. La scelta ha due aspetti discutibili. Innanzitutto, il tema. Quarant'anni di riforme dei meccanismi concorsuali, nelle quali si è provato quasi tutto – raggruppamenti disciplinari ampi e ristretti, concorsi nazionali e locali, commissari eletti ed estratti, e così di seguito – hanno insegnato una cosa: la via normativa al miglioramento dei meccanismi di reclutamento, da sola, è sterile. Senza "buona cultura" e buoni incentivi produce grida di manzoniana memoria. La buona cultura, riferita all'università e alla ricerca, comporta una declinazione della civicness in chiave di attenzione al merito.

Certo, è un bene con un ciclo di produzione lungo, ma può trovare stimolo e sostegno in un impegno del Miur (non dell'Anvur) a dare forte pubblicità, su scala nazionale, agli esiti dei concorsi: name and shame, per capirci. I buoni incentivi sono il terreno privilegiato dell'azione dell'Anvur. Essa può fornire un apporto decisivo all'affermarsi di pratiche di reclutamento meritocratiche: 1) facendo bene, e con sollecitudine, la Vqr, ossia la Valutazione della qualità della ricerca; 2) vigilando a che le valutazioni si riflettano in decisioni coerenti di distribuzione delle risorse (da qui, ancora, l'importanza della terzietà dell'Anvur rispetto al Miur).

Venendo al merito, l'assenso è pieno sull'obiettivo dei "criteri e parametri" suggeriti: reclutare i migliori. Le riserve sono sul meccanicismo e la rigidità degli strumenti proposti. Se criteri e parametri fossero intesi come autorevoli indicatori di massima per determinare i candidati ammissibili all'idoneità, il tutto sarebbe ragionevole (anche se, da solo, verosimilmente poco efficace). Ma la connotazione che l'Agenzia ne dà è cogente: «caratteristiche necessarie per accedere alle procedure di valutazione». Né basta riconoscere che una cosa è utilizzare indicatori e parametri per valutare strutture e altra è usarli per valutare singoli, come fa l'Anvur nel recente documento di risposta ai commenti sui "Criteri e parametri", se poi si finisce per dimenticare che in sede di concorsi di decidere su singoli si tratta.

Non è allora "aneddotica fuorviante", ma argomento per una seria riflessione il fatto che scienziati famosi del passato non soddisferebbero oggi i requisiti minimi proposti (per l'Economia politica, un Piero Sraffa sessantenne, tanto per fare un nome). La peer review (processo di validazione tramite il quale i lavori sono sottoposti al giudizio di esperti del settore pari dell'autore, ndr) resta il perno per la stessa valutazione di strutture di ricerca, come l'Anvur prevede per la prossima Vqr e com’è documentato dal Research Assessment Exercise inglese, la più matura esperienza nazionale di valutazione della ricerca. E quando si giudichino i singoli, il peso della peer review non può che aumentare.

Imbarazzante – ma forse si tratta di una bizzarra svista – è, infine, il ruolo che l'Anvur parrebbe volersi ritagliare in materia di concorsi. Contro la soglia di ammissibilità all'idoneità gli esclusi potrebbero ricorrere in via gerarchica (sic!) proprio all'Anvur. Un'indicazione da rimuovere: è impraticabile e ancor più non fa bene alla stessa Anvur. Un'Agenzia per tutte le questioni metterebbe a repentaglio la sua capacità di assolvere la core mission: valutare in maniera rigorosa la ricerca e fare buona guardia affinché ai risultati della valutazione seguano scelte conseguenti in tema di assegnazione di risorse.
(Fonte: U. Trivellato, Il Sole 24 Ore 15-08-2011)
 
Valutare la produttività scientifica sia dei valutatori sia dei valutati PDF Stampa E-mail

È sicuramente opportuno che l'Anvur affronti il tema dei parametri per la valutazione del merito di commissari e candidati nel nuovo sistema di reclutamento, contestualmente agli altri aspetti che riguardano la qualità della ricerca, della didattica e delle strutture universitarie. Infatti, è sull'accesso alle carriere che si gioca il futuro dell'università italiana in una fase che prelude a un rilevante rinnovamento generazionale. Il coinvolgimento attivo delle comunità scientifiche è necessario, e l'Anvur lo sta gestendo; ma le stesse non hanno fornito buona prova in passato proprio nel gestire il reclutamento ed è opportuno che, almeno per un periodo transitorio, accettino qualche regola definita al loro esterno. Il ministero non è in grado di esercitare questo ruolo, perché potrebbe interpretarlo solo in una logica burocratica; l'Anvur nella sua qualità di struttura professionale specializzata nella valutazione rappresenta l'unico riferimento affidabile per questa funzione di regolatore.

La proposta formulata ha il pregio di derivare da un'idea di policy chiara, riferita all'obiettivo di elevare la qualità della produzione scientifica dei docenti italiani, considerandone il riconoscimento e la visibilità internazionale. L'idea di fondo si traduce nell'utilizzare come soglia di accettabilità per la produttività scientifica sia dei valutatori sia dei valutati il valore mediano attribuito ai professori in servizio nei vari settori disciplinari sulla base di criteri bibliometrici.

L'esclusione dalle commissioni di almeno una metà degli attuali professori ordinari rappresenta il punto qualificante di novità da salvaguardare. Si possono discutere e migliorare i particolari, ma la rigorosità della soglia di accesso per commissari e candidati rappresenta un valore di fondamentale importanza dopo i guasti dei concorsi locali dell'ultimo decennio. Si tratta di garantire una piattaforma basilare di requisiti di partenza che non infici la possibilità per le commissioni di esprimere valutazioni definitive più approfondite e fondate su criteri qualitativi e non più meramente bibliometrici.
(Fonte: G. Rebora, Il Sole 24 Ore 29-08-2011)
 
Nominati i presidenti degli enti pubblici di ricerca PDF Stampa E-mail
Tra le nomine, Francesco Profumo alla presidenza del CNR, Giovanni Fabrizio Bignami all'INAF e Luisa Cifarelli al Centro di studi e ricerche Enrico Fermi (subentra al fisico Antonino Zichichi). Ancora, Maria Cristina Pedicchio all'Istituto nazionale di Ocenografia e geofisica sperimentale. Confermato Enrico Saggese alla guida dell'ASI, l'Agenzia spaziale italiana. Nella nota del ministero che illustra le nomine, si legge che "Sia i presidenti sia i consiglieri di amministrazione sono stati scelti tenendo in considerazione non solo i meriti scientifici e la preparazione accademica, ma anche le capacità manageriali e le competenze di gestione". L'età media dei presidenti con le nuove nomine scende di nove anni, da 69 a 60, mentre l'età media dei nuovi Cda è di 55 anni. Ecco i nuovi 11 presidenti: al Consiglio Nazionale delle Ricerche va Francesco Profumo. Ordinario di Elettronica industriale a Torino, è stato rettore del Politecnico di Torino dove ha sviluppato la Cittadella politecnica. Consorzio per l'area di ricerca scientifica e tecnologica di Trieste: Corrado Clini. Direttore generale del Ministero dell'Ambiente per lo sviluppo sostenibile, il clima e l'energia. Responsabile del fondo rotativo del Protocollo di Kyoto in Italia. Istituto Italiano di Studi Germanici (IISG): Fabrizio Cambi. Ordinario a Trento di Letteratura tedesca, è stato Preside di Facoltà. Consigliere di amministrazione dell'Ateneo Italo Tedesco e membro dell'Associazione Italiana Germanistica. Istituto Nazionale di Astrofisica (INAF): Giovanni Fabrizio Bignami. Ordinario di astronomia allo IUSS, Pavia, Linceo, è membro di altre sei Accademie. Ha ottenuto più di 10 premi scientifici nazionali e internazionali e ricoperto incarichi di vertice in società scientifiche e di governance in Enti nazionali e internazionali. Istituto Nazionale di Geofisica e Vulcanologia (INGV): Domenico Giardini. Ordinario a Zurigo, ETH. Accademico nazionale svizzero, carriera accademica come manager. Ha ricoperto ruoli direttivi manageriali e di governance a livello internazionale. Istituto Nazionale di Ricerca Metrologica (INRIM): Alberto Carpinteri. Ordinario di Scienza delle costruzioni al Politecnico di Torino. Per cinque anni presidente dell'INRIM e attuale vicepresidente, ha ricevuto premi a livello nazionale e internazionale.  Istituto nazionale di Oceanografia e di Geofisica Sperimentale (OGS): Maria Cristina Pedicchio. Ordinario di algebra a Trieste. Museo Storico della Fisica e Centro di Studi e Ricerche 'Enrico Fermi': Luisa Cifarelli. Carriera nell'INFN. Professore ordinario a Bologna. Responsabile direttivo in importanti Comitati accademici. Attiva in società scientifiche e gestore di progetti nazionali e internazionali. Consigliere di amministrazione del Centro Fermi. Agenzia Spaziale Italiana (ASI): confermato Enrico Saggese. Laurea in Ingegneria, inizia come tecnologo, autore di 70 pubblicazioni. Premiato anche all'estero. Importanti partecipazioni a Board societari (Avio group, Telespazio, Space Engineering, CIRA). Stazione Zoologica "Anton Dohrn": Enrico Alleva. Dirigente di ricerca all'Istituto Superiore di Sanità, Linceo. Docente di Etologia ed esperto di Biologia del Comportamento. Membro di 12 Accademie, partecipa alla Commissione di Bioetica del CNR. Gelmini ha inoltre nominato, a seguito dell'elezione da parte della Comunità scientifica, il professor Vincenzo Ancona, Ordinario all'Università di Firenze, presidente dell'Istituto Nazionale di Alta Matematica (INDAM).
(Fonte: La Stampa 14-08-2011)
 
Altri articoli...
« InizioPrec.12345678910Succ.Fine »

Pagina 2 di 10