Home 2012 23 Agosto
23 Agosto
STUDENTI. TEST D’AMMISSIONE CON COSTI IN CRESCITA PDF Stampa E-mail

Sia per quanto riguarda la laurea triennale sia quella magistrale, sono ormai un terzo i corsi a numero chiuso o programmato, cui si può accedere solo dopo il superamento di una prova. Oltre 708 sono quelli in Medicina e Chirurgia, Medicina Veterinaria e Architettura, e a questi poi se ne aggiungono altri 882, scelti liberamente dalle varie università per garantire una preparazione adeguata agli studenti. Si tratta di un fenomeno in crescita, con alcuni atenei che hanno ormai tutti i corsi ad accesso limitato: è l’esempio di Palermo e Catania. Per ottenere buoni risultati ai test d’ammissione che si terranno tra non molte settimane è richiesto un grande impegno anche dal punto di vista economico: tra l’iscrizione alle prove e i corsi di preparazione, si possono arrivare a spendere fino a 4mila euro a testa. Le future matricole, infatti, di solito partecipano a più prove, ognuna con un costo che cambia da ateneo ad ateneo: per esempio, a Padova si aggira attorno ai 27 euro, a Roma Tre è di circa 25 e a Catania di 40 euro. Ma ci sono università anche più care come quelle di Bologna, Napoli, Pavia o la Luiss di Roma, quest’ultima con prezzi compresi tra i 75 e i 100 euro. Il costo per affrontare i test d’ammissione ai corsi di laurea a numero chiuso, che sono 1.590 su 4.690 esistenti cioè il 33,9 per cento, lievita ancora di più rispetto a quello iniziale se si tiene pure in considerazione tutto il business che ruota attorno. Per prepararsi, infatti, occorre comprare specifici manuali che possono arrivare a costare fino a 115 euro, per non parlare poi dei corsi che si frequentano nel periodo prima della prova: si passa da quelli di pochi giorni (400 euro) a quelli più lunghi, che durano qualche mese o che prevedono soggiorni vacanza con sessioni di studio. In questo caso si può arrivare ad oltre 4mila euro.
(Fonte: l. Tumbarello, universita.it 12-08-2012)

 
VALUTAZIONE INDIVIDUALE. MEGLIO DI QUELLA DEGLI ATENEI PDF Stampa E-mail

Proviamo a individuare i fattori che possono determinare differenze di performance tra le università italiane. Un possibile fattore potrebbe riguardare un’allocazione delle risorse da parte del MIUR non propriamente equa, per cui alcune università potrebbero essere state penalizzate nel tempo: non sono pochi i rettori che lamentano questo tipo di circostanza. Un altro fattore potrebbe consistere nel vantaggio di localizzazione: università ubicate in aree ad alta intensità di ricerca industriale, beneficiando dell’effetto della prossimità territoriale, potrebbero aver acquisito finanziamenti privati maggiori di altre. Lo stesso dicasi per i finanziamenti a sostegno della ricerca universitaria erogati dalle amministrazioni regionali, non necessariamente distribuiti in egual misura da regione a regione. Da ultimo, una possibile diversa distribuzione delle pratiche clientelari nei concorsi e dei comportamenti opportunistici da parte del personale di ricerca. Si osserva che gli improduttivi nelle scienze dure (coloro che non hanno mai pubblicato nell’arco di cinque anni o non sono stati mai citati) sono il 24,6 per cento e il 77 per cento del personale di ricerca produce solo il 23 per cento dell’impatto scientifico totale. Inoltre, le differenze di produttività di ricerca tra università sono relativamente molto più basse di quelle che si riscontrano tra il corpo docente all’interno di ciascuna università. Alla luce di tutto ciò, la scelta di allocare parte delle risorse sulla base della performance aggregata di ciascuna università non solo inficia il principio di equità per gli stakeholder (studenti, imprese sul territorio, pazienti dei servizi sanitari erogati dal personale universitario, eccetera). In secondo luogo, le singole università, in assenza di una valutazione individuale di performance, non sono in grado a loro volta di allocare le risorse internamente in funzione del merito, ammesso che “vogliano” farlo (il 77 per cento dei low performer verosimilmente condizionano le politiche degli organi decisionali), ma risulta anche scarsamente efficace rispetto agli obiettivi che intende perseguire. La soluzione passa inevitabilmente attraverso la tanto temuta valutazione individuale al fine di legare una parte della retribuzione al merito. Solo così si disincentiverebbero i comportamenti opportunistici di chi antepone l’utilità personale a quella pubblica, si potrebbero premiare i top performer, individuare gli improduttivi e affrontare il relativo problema fino a considerare la loro sostituzione con giovani di talento.
(Fonte: G. Abramo e C. A. D'Angelo, Lavoce.info 13-07-2012)

 
VALUTAZIONE. LA SIF CHIEDE UNA VALUTAZIONE TRAMITE INDICI BIBLIOMETRICI INTEGRATA DA UNA VALUTAZIONE NON BIBLIOMETRICA PDF Stampa E-mail

La Società Italiana di Fisica (SIF) fa propria la posizione recentemente assunta dall’European Physical Society (EPS Statement: On the use of bibliometric indices during assessment) che attraverso l’analisi di una serie di studi condotti a livello internazionale mostra come l'uso di misurazioni quantitative per la valutazione della ricerca (numero di citazioni ottenute da un articolo, IF-impact factor delle riviste sulle quali gli articoli vengono pubblicati, H-index o G-index) se da una parte può costituire un elemento di obiettività nella valutazione, dall'altra può rivelarsi estremamente discriminante qualora una debita comparazione fra i diversi contesti di ricerca non venga tenuta in considerazione. L’EPS rileva la necessità di rispettare abitudini e specificità di pubblicazione che caratterizzano un ambito di ricerca e che possono variare significativamente a seconda del contenuto, della dimensione della comunità di ricerca, dal contesto economico e amministrativo e dalle tradizioni di ricerca ed assegna alla peer review un ruolo fondamentale nella valutazione della qualità della ricerca.
(Fonte: http://en.sif.it/news/153 12-07-2012)

 
VALUTAZIONE. RANKING DELLE RIVISTE DI ECONOMIA AI FINI DELLA VALUTAZIONE VQR PDF Stampa E-mail

Le riviste sono state classificate in quattro classi sulla base dei seguenti percentili di AIS_imp e IF5_imp: 50/10/20/20. I ranking costruiti sulla base di AIS_imp e IF5_imp sono disponibili nel file allegato (cl_AIS e cl_IF5). Considerati gli argomenti a favore e contro i due indicatori, nonché la loro forte correlazione (pari a 93,4%), il GEV ha deciso di utilizzare per il ranking finale delle riviste il valore massimo dei due ranking. Un documento allegato illustra la scelta del criterio di imputazione e degli indicatori bibliometrici. Il file Stata utilizzato per l’imputazione dei valori mancanti è allegato.
Seguire il link per scaricare tutti gli allegati. (Fonte: socialcapitalgateway.org luglio 2012)

 
VALUTAZIONE. IL VERO METRO NELLE DISCIPLINE SCIENTIFICHE UN MIX DI CRITERI BIBLIOMETRICI E DI PEER REVIEW PDF Stampa E-mail

Il vero metro della qualità scientifica di un lavoro di ricerca è il giudizio critico, articolato e consapevole, che viene elaborato dalla comunità disciplinare di riferimento”.
L’opportunità di richiamare questo concetto di comunità scientifica come garante e depositaria ultima del giudizio scientifico sta nel fatto che, in quanto entità mal definibile se non addirittura astratta, è proprio sulla sua terzietà che si appuntano le critiche più puntute. Una fra tutte è che la comunità, la cui autorevolezza si baserebbe appunto sul concetto definito da Merton come “riconoscimento dei pari”, è in realtà formata di uomini che, in modo più o meno volontario, potrebbero essere spinti a forzare e distorcere i propri giudizi per motivi vari (interessi di scuola, eccesso di autocitazioni, mode culturali presenti anche nelle discipline scientifiche ecc.). Eppure la maggior parte degli scienziati, non a caso, si trovano d’accordo nel riconoscere ai criteri bibliografici, e quindi al sistema competitivo mertoniano, una validità abbastanza universale sia pure limitatamente alle scienze dure. Ma non basta: il sistema della valutazione nelle discipline scientifiche non è in realtà demandato soltanto a criteri bibliometrici: molti dei Gev (Gruppi Esperti Valutatori) hanno introdotto fra i loro criteri anche quello della peer review. Ad esempio prodotti apparsi su riviste scientifiche non presenti nella banca dati adottata o per i quali vi è divergenza fra il criterio della qualità della rivista (IF) e l’indice citazionale, saranno sottoposti in modo sistematico a peer review. Inoltre una quota fissa di prodotti individuati in modo casuale seguirà comunque quest’ultimo tipo di valutazione da parte preferibilmente di reviewers stranieri, al fine di studiare la correlazione tra i due metodi di valutazione. A questa valutazione poi sarà affiancata una scheda specifica per ogni prodotto, talché non appaia troppo arbitraria la valutazione stessa. Non si dimentichi infine che essa inciderà solo per il 50% della valutazione finale che sarà basata per la restante quota su criteri tutt’altro che bibliometrici, quali la capacità di attrarre risorse esterne attraverso finanziamenti ottenuti da progetti di ricerca sia nazionali (Prin, Firb) che internazionali (Programmi Quadro dell’Unione europea ecc.), la capacità di istituire collegamenti internazionali (presenza di colleghi di istituzioni estere come coautori del prodotto), numero di studenti di dottorato, assegnisti di ricerca, borsisti ecc. ed altri ancora più o meno legati alla capacità delle Istituzioni di autofinanziare iniziative di ricerca. Per quanto fino a qui detto mi pare quindi che un rifiuto assoluto dei parametri di valutazione adottati nell’ambito delle discipline scientifiche, costituiti appunto da un mix di criteri bibliometrici e di peer review, apparirebbe, anche agli occhi dell’opinione pubblica, come un’esplicita ammissione da parte della comunità scientifica della sua incapacità ad autovalutarsi e a correggersi, il che farebbe venire meno il presupposto stesso intorno a cui la comunità scientifica si è costituita.
(Fonte: P. Miccoli, Il Sussidiario 17-07-2012)

 
VALUTAZIONE. COME NON UTILIZZARE IL PRINCIPIO DELLE MEDIANE PDF Stampa E-mail

Non è il comma 3 dell’art. 3 del DM n. 76 del 7 giugno 2012 a consentire che le commissioni per l’abilitazione scientifica si discostino dal principio delle mediane, ma il comma 5 dell’art. 6, che recita: Qualora la commissione intenda discostarsi dai suddetti principi è tenuta a darne motivazione preventivamente, con le modalità di cui all’articolo 3, comma 3, e nel giudizio finale. Ciò può significare che la Commissione può effettivamente decidere di non utilizzare in modo dirimente il criterio delle mediane, con la sola condizione che ne dia comunicazione nei modi detti. Gli indicatori delle mediane sono, se si fa attenzione, caratterizzati appunto come “principi”. La norma consente dunque effettivamente ad una commissione che lo volesse di utilizzare gli indicatori non attenendosi al principio delle mediane o altro (ossia di utilizzarli come dati, non come vincoli). In questa ipotesi interpretativa le mediane resterebbero condizioni rigide solo per i candidati commissari, perché lì non c’è una commissione cha applica principi, ma decide l’ANVUR stessa. (Fonte: C. La Rocca, roars 22-07-2012)

 
Altri articoli...
« InizioPrec.111213141516171819Succ.Fine »

Pagina 13 di 19