• No se han encontrado resultados

Miden bien los rankings la calidad de las universidades españolas?

N/A
N/A
Protected

Academic year: 2021

Share "Miden bien los rankings la calidad de las universidades españolas?"

Copied!
31
0
0

Texto completo

(1)

CARMEN

 

PÉREZ

 

ESPARRELLS

PROFESORA

 

TITULAR

 

DE

 

ECONOMÍA

 

APLICADA

DEPARTAMENTO DE ECONOMÍA Y HACIENDA PÚBLICA UNIVERSIDAD AUTÓNOMA DE MADRID

LOS

 

RANKINGS

 

UNIVERSITARIOS:

LOS

 

RANKINGS

 

UNIVERSITARIOS:

SUS

 

BENEFICIOS

 

Y

 

SUS

 

BENEFICIOS

 

Y

 

PATOLOG

PATOLOG

Í

Í

AS

AS

BENICASIM,

 

6,

 

7

 

Y

 

8

 

DE

 

JULIO

 

DE

 

2011

BENICASIM,

 

6,

 

7

 

Y

 

8

 

DE

 

JULIO

 

DE

 

2011

¿

¿

Miden

Miden

 

 

bien

bien

 

 

los

los

 

 

rankings

rankings

la

la

 

 

calidad

calidad

 

 

de

de

 

 

las

 

universidades

 

espa

(2)

¿

¿

Miden bien los

Miden bien los

rankings

rankings

la calidad de las

la calidad de las

universidades espa

universidades espa

ñ

ñ

olas?

olas?

Í

Í

NDICE

NDICE



Introducción

 ¿Existen diferentes “ligas”? 



El

 

diagnóstico

 

de

 

las

 

universidades

 

españolas

 

en

 

los

 

rankings

internacionales

¿Cómo evalúan los rankings internacionales? 



Los

 

“rankings” y

 

la

 

situación

 

europea

 



Los

 

“rankings” y

 

la

 

situación

 

española

  



Algunas

 

políticas

 

en

 

función

 

del

 

territorio

¿Qué estrategias  “palancas” pueden  mejorar  la  posición  de  las  universidades españolas?

¿De arriba abajo o de abajo a arriba?

(3)

Desde

 

la

 

perspectiva

 

del

 

territorio

,

 

los

 

resultados

 

de

 

los

 

rankings

pueden

 

ser

 

analizados

 

en

 

varios

 

niveles:

Â

Mundial (global)

Los rankings globales delimitan con sus primeras posiciones (Top‐20, Top‐50, Top‐100) las que se 

pueden denominarse  World Class Universities.

Las  100  mejores  universidades  compiten  por  mantenerse  en  el  ranking  Shangai  y  no  bajar 

posiciones.

Â

Europeo

Los rankings europeos permitirán delimitar las  mejores universidades europeas “a la carta”.

Con esta selección y taxonomía, darán “pistas” para apoyarlas con la política supranacional y/o las 

políticas nacionales. 

Â

Nacional

En España no existe un ranking “oficial” de mejores universidades españolas. 

Otros países mediterráneos están en la misma situación (Italia, Francia, Portugal, etc.). 

Introducci

(4)

Diagn

Diagn

ó

ó

stico

stico de los 

 

de

 

los

 

rankings

rankings

internacionales

internacionales

Un

 

proceso

 

en

 

evolución

 

con

 

tendencia

 

a

 

la

 

especialización

Rankings

globales

Rankings

generalistas

Otros

 

rankings

Rankings

de

investigación

Investigación Prestigio Docencia Transferencia Aprendizaje Web Tercera Misión Producción científica Patentes Tesis

(5)

Diagn

Diagn

ó

ó

stico

stico de los 

 

de

 

los

 

rankings

rankings

internacionales

internacionales

Tipos

 

de

 

rankings

globales

 

Â

Generalistas

 

(con

 

la

 

finalidad

 

de

 

generar

tablas 

de 

clasificación, muy “elitistas”

):

{

ARWU

(Academic Ranking  of World  Universities de  Shangai  Ranking 

Consultancy)  o  Ranking  de  Shanghai Jiao Tong  University (desde  2003,  500 

universidades).

{

THES

QS

(Times Higher Education Supplement en cooperación con Quaquarelli‐

Symonds) (desde 2004 hasta 2009). (

QS

 

desde 2010, 500 universidades + lista)

{

THE

TR

(Times Higher Education World University Ranking en cooperación con 

Thomson Reuters (desde 2010, 200 universidades)

{

USNWR

QS

 

(Worl’d Best Universities Ranking‐ US News & World Report en 

cooperación con QS) (desde 2010, 400 universidades).

(6)

Métodología

de

 

los

 

rankings

generalistas

¿Qué

miden?

 Investigación

 Resultados de la investigación. 

 Impacto.

 Ingresos de la investigación (nuevo en 2010 del THE‐TR).

 Prestigio (reputación)

 Encuestas por pares a académicos.

 Profesorado Nobel y con medallas Field.

 “Docencia”

 Calidad de la docencia.  Internacionalización.  Excelencia en la docencia.

 “Transferencia de conocimiento”

 Ingresos de la industria (nuevo en 2010 del THE‐TR).

Diagn

(7)

Críticas genéricas a los rankings generalistas:

 Están decantados básicamente hacia la investigación (y a una parte).

 Sesgados a favor de Medicina y Ciencias y en contra de las Ingenierías, Ciencias  Sociales y Humanidades (indicadores bibliométricos).

 Miden el entorno de la docencia pero no realmente la calidad de la docencia.  Miden el “prestigio” de una forma subjetiva o inalcanzable.

 Sesgados hacia las Instituciones de Educación Superior (IES) de lengua inglesa.

Críticas específicas a los rankings generalistas:

 Discutible la relación ratio estudiante/profesor y la calidad de la docencia.

 Discutible la relación entre estudiantes/profesores internacionales y la calidad.  Discutible la medición de la transferencia del conocimiento solo con ingresos.

Diagn

(8)

72 29 14 10 9 7 6 6 6 5 4 4 4 4 3 2 2 2 2 2 2 1 1 1 1 1 0 10 20 30 40 50 60 70 80 Oxford / Cambridge University of Guttenger Universidad de Barcelona University of Alexandria Trinity college Dublin

Pekin University Harvard University

Resultados

 

del

 

THE

(9)

Universidades

 

europeas

 

en

 

el

 

THE

Universidades

 

europeas

 

en

 

el

 

THE

TR

TR

 

 

(2010)

(2010)

 

 

y

y

 

 

gasto

 

en

 

ES

 

en

 

%

 

del

 

PIB

 

(OCDE)

(10)

Posición

 

de

 

las

 

universidades

 

españolas

 

en

 

los

 

rankings

generalistas

 

(ARWU

 

y

 

QS

 

desde

 

2004

 

a

 

2010)

9 Universidades españolas entre las primeras 200‐300 posiciones .

 UAM y UB (en algunos años logran alcanzar entre 150‐200)

 UCM y UV 

9 Universidades españolas entre las posiciones 400‐500.

 UAB (logra posiciones entre 150‐200 en el QS)

 UPV, UPF (logra posiciones entre 300‐400 en ARWU y 300‐350 en QS)

 UGR, USC, USE, y UZ 

9 Universidades españolas en el QS

 UNAV (logra posiciones entre 300‐350) y USA (entre 400‐500)

Diagn

(11)

2004 2005 2006 2007 2008 2009 2010 UAM 153‐201 153‐202 201‐300 203‐304 201‐302 201‐302 201‐300 UB 202‐301 153‐202 151‐200 151‐202 152‐200 152‐200 201‐300 UV 302‐403 301‐400 301‐400 203‐304 302‐403 201‐302 201‐300 UCM 302‐403 203‐300 201‐300 203‐304 201‐302 201‐302 201‐300 UAB 404‐502 401‐500 401‐500 305‐402 303‐401 303‐401 301‐400 UGR 404‐502 401‐500 401‐500 403‐510 402‐503 402‐501 401‐500 USC 404‐502 402‐501 401‐500 USE 404‐502 401‐500 401‐500 403‐510 402‐503 402‐501 UZ 404‐502 401‐500 401‐500 403‐510 402‐503 402‐501 401‐500 UPV 401‐500 301‐400 305‐402 303‐401 303‐401 301‐400 UPF 402‐501 301‐400

ARWU

ARWU

QS

QS

Universidades  españolas en los  rankings internacionales Universidades  españolas en los  rankings internacionales 2004 2005 2006 2007 2008 2009 2010 UAM 159 183 261 306 254 215 213 UB 190 194 186 171 148 UV 398 393 401 401 401 UCM 239 239 426 306 252 269 UAB 239 258 256 211 173 UGR 484 453 401‐500 451‐500 USC 476 477 401‐500 USE 424 490 UZ 465 499 UPF 321 339 342 324 336 UNAV 288 319 401‐500 381 353 USA 368 445 401‐500 401‐500

(12)

Diagn

Diagn

ó

ó

stico

stico de los 

 

de

 

los

 

rankings

rankings

internacionales

internacionales

Tipos

 

de

 

rankings

globales

Â

De investigación 

(con

 

o

 

sin

 

finalidad

 

de

 

obtener

tablas

 

de

 

clasificación

):

{ HEEACT (Higher Education Accreditation and Evaluation Council of Taiwan) (desde 2007,  500 universidades)

{ CWTS  (Centre for Science and Technology Studies)  Ranking  de  Leiden  sin  finalidad  de  obtener una clasificación (desde 2008, 250 universidades)

{ SIR (Scimago Institutions Rankings) Ranking de Scimago (desde 2010, más de 2.000 centros  de investigación)

Â

Otros rankings

{ Webometrics Ranking of World Universities (Cibermetrics Lab,  Grupo de Ciencias  Humanas y Sociales, CSIC) (desde 2004, 12.000 instituciones).

{ AHELO (Assessment of Higher Education Learning Outcomes Project en cooperación con  OCDE) (en curso de realización). 

{ Third Mission (European Indicators and Ranking Methodology for University Third

Mission) coordinado desde el Centro para la Calidad y Gestión del Cambio de la 

(13)

Métodología

en

 

los

 

rankings

de

 

investigación:

Â

Productividad

| Número de publicaciones.  | Citas por publicación. 

Â

Impacto

| Citas por publicación dividido por el impacto medio del campo. | Número de publicaciones por el impacto relativo en el campo .

Â

Excelencia

| Indice H.

| Número de artículos altamente citados.

| Número de artículos en revistas con alto impacto.

Diagn

(14)

Â

Críticas

 

a

 

los

 

rankings de

 

investigación:

 Abandonan otras misiones de la universidad.

 Suelen favorecer a las Universidades “potentes” en Ciencias y Salud.

 Suelen favorecer a las IES de mayor tamaño (mayor presupuesto).

 Problemas de ponderación de los indicadores.

 Problemas de doble contabilización.

 Problemas con la correcta identificación de las IES.

Diagn

(15)

Posición

 

de

 

las

 

universidades

 

españolas

 

en

 

los

 

rankings

de

 

investigación

 

(2009

 

y

 

2010)

9 Universidades españolas que destacan en todos los rankings de investigación:

 UAM, UB , UCM, UV y UAB

9 Si se restringe el ámbito de estudio a las universidades europeas, como ocurre en el ranking de Leiden, se posicionan ya 18 universidades españolas.

 UAM, UB , UCM, UV y UAB

 UPV, UGR,  USC, USE, UZA, USAL, UMU, UPV, UOVI, UPC, UPM, UV, UMA

 Quedan fuera PF y UNAV en los 4 rankings de Leiden, lo que puede decir 

que su tamaño les está penalizando

Diagn

(16)

Aspectos

 

positivos:

9 Han centrado la atención en la ES y en las IES (ranking “season”).

9 Mayor 

información

para

 

toma

de decisiones.

 Muy poco convincente para estudiantes, salvo Asia o con el CHE Ranking

9 Mayor 

competencia

entre IES.

 Solo entre el 3%‐5% de las 17.000 universidades a nivel mundial

9 Mejor rendición de cuentas a la sociedad y a los financiadores 

 Los gobiernos los están usando para argumentar futuras inversiones en ES

9 Mejora en la recopilación y publicación correcta de los datos de las IES.

 La ausencia de datos comparables a nivel internacional para algunas actividades  aprendizaje, inserción laboral, etc.‐es un “reto”

Diagn

(17)

Aspectos

 

negativos:

Â

Genéricos:

9Son “superficiales” por sus limitaciones y por evaluar la calidad de manera “ingenua”.

9Miden lo que puede ser medido, no lo relevante. Son “proxis” defectuosa de la calidad y 

la excelencia.

9Sesgados hacia la investigación, dentro de ella a las áreas mejor representadas en las 

bases de datos empleadas.

9Falta relacionar resultados con el tamaño de las IES (y con la capacidad económica de las  mismas).

9Empleo de indicadores/pesos arbitrarios y subjetivos.

Â

Particulares:

9Insuficiente transparencia en la elaboración de los indicadores (en algunos casos). El IREG  va a poner en marcha una auditoria de varios de estos rankings.

9Reflejan factores de reputación (interrelacionados con intereses comerciales y políticos)  y no necesariamente con la calidad o el desempeño de las instituciones.

Diagn

(18)

Distintas opiniones de los rankings

internacionales en Europa:

 European University Association (EUA Report on Rankings‐junio 2011)

 Confirma que las rankings globales de IES son realmente “superficiales” porque reflejan una simplificación de la realidad 

poco “útiles” porque agregan por instituciones y por actividades, sin tener en cuenta la multi‐dimensionalidad. 

 En muchos casos, la metodología y su realización no es del todo transparente.

 European Students’ Union (ESU, comunicado del 17 de junio)

 En muchos casos se reducen a números, son simplistas y elitistas (necesidad de rankings más democráticos).

 No  son buenas  “guías  para la elección” porque  miden sobre todo investigación, dejando a un  lado  docencia  y 

aprendizaje, que es la variable que los estudiantes quieren conocer, fundamentalmente por programas de estudio.

Acciones realizadas desde Europa para favorecer la transparencia sin finalidad de clasificar: 

1. CHE UniversityRankingy CHE ExcellenceRanking y otros CHE rankings(CenterforHigherEducation, Berlin)

2. Puesta en marcha del proyecto U‐Map

3. Puesta en marcha del proyecto U‐Multirank

Diagn

Diagn

ó

ó

stico

stico de los 

 

de

 

los

 

rankings

rankings

internacionales

internacionales

EU Feasibility studyon design and testing of a Multidimensional       Global 

Ranking, Comisión Europea

EU Feasibility studyon design and testing of a Multidimensional       Global 

(19)

Â

U

Map

(CHE, CHEPS, CWTS, INCENTIM, OST, EFMD, EANI):

 3 informes preliminares: 2005, 2008, 2010; actualmente, en 2010‐11 se está rellenando con datos reales 

de las propias universidades. Descriptivo, no hace prescripciones.

 Elaboración  de  un  Perfil  Institucional  por  universidad  en  función  de  6  dimensiones  (docencia  y 

aprendizaje,  estudiantes,  investigación,  transferencia  del  conocimiento,  orientación  internacional, 

implicación con el territorio).

Â

U

Multirank

(CHE y CHEPS):

 Multi‐dimensional(5 dimensiones: docencia y aprendizaje, investigación, transferencia del conocimiento, 

orientación internacional, implicación con el territorio).

 Multi‐nivel: por áreas de conocimiento, por programas de estudio.

 Auto‐dirigido:  permite  hacer  sus  propios  “rankings” a  los  diferentes  grupos  con  intereses  en  la 

universidades (estudiantes grado, estudiantes MA/PhD, profesores, financiadores, responsables políticos 

e institucionales, etc.).

Objetivos:

 

1. Recoger la diversidad y diferenciación: a través de instrumentos para agrupar las IES después de la 

transformación y sustancial expansión de las IES europeas

2. Sirven de base para políticas institucionales: permite evaluar a los HEI managers comparativamente 

perfiles institucionales comparables  (benchmarking) y establecer colaboraciones.

3. Permite realizar un seguimiento de las tendencias que desarrollael sector de la ES en Europa.

Nuevas herramientas de transparencia en Europa

(20)

Perfil Institucional (Institutional Profiles)

Dimensiones: Perfil de enseñanza y aprendizaje, perfil del estudiante, Actividad investigadora, transferencia de resultados de la investigación Orientación internacional e implicación regional

Meno s inves

tig.

(21)

Algunos puntos débiles de los proyectos de la Comisión Europea (estudios de factibilidad)

 Críticas genéricas:

 Técnicamente se aproxima mucho mejor la calidad en sus dimensiones pero a costa de nutrir una 

buena base de datos muy complicada de obtención.

 Mayor peso de las universidades europeas en el U‐Multirank (serán bienvenidas más universidades 

americanas) y mayor peso de las públicas. Solo han participado las IES voluntariamente.

 Problemas de fiabilidad de los datos (“manipulación” de variables: salarios, ratios estudiante/profesor, 

etc.)  Posibles soluciones: “peer review” o puesta en marcha procesos de auditoria.

 Críticas específicas:

 Poca cobertura de comparación. En las 150 universidades de la fase piloto solo una española, la UPC. 

(U‐Map compara en detalle 3 IES elegidas, el U‐Multirank 5 IES).

 ¿Cómo hacer un buen uso e interpretación de los resultados parciales por parte de los stakeholders? 

La EUA advierte del “peligro” de que se terminen convirtiendo en “rankings”

 Problemas de definición de variables (qué se entiende por alumno, qué se entiende por profesor, etc.). 

La comparación internacional es más incompatible en el U‐Multirank que en el U‐Map según la EUA.

Nuevas herramientas de transparencia en Europa

(22)

Comparación

 

de

 

la

 

situación

 

europea

 

con

 

la

 

mundial

 

(anglosajona)

 “Rankings a  la  americana”: se trata  de  “verdaderos” rankings que  desembocan  en 

tablas de clasificación que ordenan a las universidades en posiciones, a la manera de las 

Business School o de los medios de comunicación, p.e.  US News & World Report. ¿Para 

qué sirven?Miden PRESTIGIO

 “Rankings a  la  europea”:  se  trata  de  rankings multidimensionales,  adaptados  a  los 

principios de Berlin para intentar reflejar las numerosas actividades de una universidad 

(como  en  el  U‐Multirank)  o  todos  los  aspectos  dentro  de  una  actividad  como  la 

investigación (como el de Leiden). ¿Para que se utilizan? Para medir calidad y están 

orientados a la mejora continua.

 “Rankings a la española”¿cómo serán? Lo que si sabemos es que si se aumenta la 

precisión,  se  incrementa  el  nivel  de  complejidad.  Parece  una  necesidad  imperiosa 

establecer un acuerdo de mínimos en indicadores para futuras clasificaciones del SUE.

Resumen

(23)

¿

¿

Necesidad

Necesidad

 

 

de

de

 

 

clasificaciones

clasificaciones

 

 

oficiales

oficiales

en

en

 

 

Espa

Espa

ñ

ñ

a?

a?

Estudios

 

anteriores:

 

Aprender

 

de

 

la

 

experiencia,

 

de

 

sus

 

metodologías

 

y

 

de

 

sus

 

errores

 Se trata de iniciativas efectuadas a título individual, por académicos o grupos 

de  investigación  o  centros  de  investigación,  fundaciones,  de  las  que  se 

pueden sacar lecciones y aprendizaje.

 Constituyen un buen ensayo de diferentes metodologías y aproximaciones y 

permiten discutir su utilidad y validez entre expertos.

 Son muy variadas. Una posible clasificación de estos  estudios:

 Primer grupo: medición en exclusiva de la actividad investigadora 

 Segundo  grupo:  evaluación  de  la  eficiencia  de  las  universidades 

españolas

(24)

Rankings españoles

 

de

 

investigación

 Scimago (2005,  2007): pondera  por  profesorado  a  tiempo  completo, 

permite la comparación entre universidades publicas y privadas.

 Buela‐Casal et al. (2009): relativizado por profesores funcionarios (no TEUs). 

Compara universidades públicas y privadas.

 Gomez‐Sancho  Mancebón‐Torrubia (2010): pondera  por  profesorado 

equivalente a tiempo completo y además realiza una homogeneización de 

universidades publicas atendiendo a su oferta de titulaciones.

 Ranking ISI‐EC3 U. Granada y U.Navarra (2010). Investigación por campos 

científicos  (12)  para  universidades  públicas  y  privadas  entre  2000‐2009. 

(http://sci2s.ugr.es/rankinguniversidades/index.html)

ÂObservatorio IUNE de la Alianza 4U (2011): UC3M, UAM, UAB, UPF (recoge 

indicadores de actividad científica, innovación, de capacidad formativa, etc. 

de universidades públicas y privadas entre 2002 y 2009). 

¿

(25)

Estudios

 

españoles

 

de

 

evaluación

 

de

 

la

 

eficiencia

 

(técnica)

través de la técnica de Análisis de Envolvente de Datos (DEA)

ÂGómez  Sancho  (2005): Trata  homogeneidad  (oferta  titulaciones).  Inputs compartidos (gasto corriente en bienes y servicios y PETC) output docente 

(titulados) output investigador (FICPCPM). Multiactividad.

ÂDuch  (2006): 3  modelos  (PDIETC,  PASETC  /  capacidad  aulas,  bibliotecas  y 

laboratorios / Precios asociados a PDI y PAS. Output docente: matriculados 

(primeros  ciclos y doctorado) Output  investigador:  Tesis,  publicaciones  ISI, 

Patentes.

ÂPerellada y Duch (2006): PDIETC, PASETC y recursos no financieros (tasas, 

ingresos patrimoniales y recursos ajenos e ingresos I+D). Outputs: anterior 

más sexenios por profesor.

ÂHernangómez et  al.  (2007): Trata  homogeneidad  (grupos  estratégicos). 

Inputs PETC  gastos  en  inversiones  reales.  Output:  alumnos  grado  e 

inversiones totales.

¿

(26)

Indicadores

 

sintéticos

 

de

 

docencia,

 

investigación

 

y

 

otros:

 

(Fundación CYD)

ÂIndicador compuesto de capacidad de atracción de nuevos estudiantes. ÂIndicador compuesto de calidad docente. 

ÂIndicador compuesto de calidad del doctorado. ÂIndicador compuesto de calidad investigadora.

 De las 47 universidades públicas posicionadas con los mejores valores en el curso 2008‐

2009 en el ranking de calidad docente y calidad investigadora coinciden en el Top‐15 la 

Universitat Pompeu Fabra,  la  Universidad  Autónoma  de  Madrid,  la  Universidad  de 

Cantabria, la Universitat Rovira i  Virgili, la Universidad  de Córdoba, la Universidad  de 

Santiago de Compostela y la Universidad Politécnica de Cataluña.

¿

(27)
(28)

Dificultades

 

de

 

partida

 

a

 

la

 

hora

 

de

 

emprender

 

acciones:

 Lugar  de  recopilación  de  los  datos:  componente  subjetivo  en  función  de 

donde se originen 

 En la recopilación de los datos de las universidades están involucrados multitud de centros y  unidades. Es complejo llegar a una presentación completa y homogénea ¿quién la debe  realizar?. 

 Las universidades deberían facilitar datos ciertos y auditados que van a tener gran uso y  publicidad (transparencia).

 Tratamiento  del  “tamaño” de  las  universidades. Según  la  variable 

“profesorado” seleccionada se mostrarán dos realidades diferentes:

 Profesores Doctores equivalentes a tiempo completo.

 Profesores  permanentes  en  universidades  públicas  y  profesores  con  contrato 

indefinido en universidades privadas.

¿

¿

Necesidad

Necesidad

 

 

de

de

 

 

clasificaciones

clasificaciones

 

 

oficiales

oficiales

en

en

 

 

Espa

Espa

ñ

ñ

a?

a?

Necesidad  de  un  acuerdo  de  mínimos:  en  función  de  los  objetivos  de  las 

(29)

Pasos

 

a

 

dar

 

para

 

la

 

elaboración

 

de

 

múltiples

 

rankings

para

 

evaluar

 

la

 

calidad

 

de

 

las

 

universidades

 

españolas:

1. Necesidad de información única, suficiente y contrastada.

2. Consenso sobre un catálogo “oficial” de indicadores (Acuerdo de mínimos).

3. Elaboración de rankings analíticos.

4. Elaboración de rankings sintéticos.

Rankings

inclusivos

 

adaptándose

 

a

 

cada

 

universidad

 

para

 

desarrollarla

 

al

 

máximo,

 

no

 

necesariamente

 

oficiales

¿

(30)

Algunas

 

reflexiones

 

finales

Algunas

 

reflexiones

 

finales

Claves del éxito de las universidades españolas

 España y sus universidades no se pueden quedar en el “furgón de cola” de los 

rankings internacionales. Hay que pasar a acción individuales concretas, como por 

ejemplo  participar  en  el  U‐Multirank a  nivel  europeo,  participar  en  el  Global 

Institutional Profile Project(capitaneado por Thomson Reuters) a nivel mundial.

Recomendaciones para las universidades españolas

 Coger capacidad de liderazgo.

 Buscar socios en el proceso de cambio. 

El  posicionamiento  de  una  universidad  en  el  ranking  no  puede 

convertirse en el objetivo de la política de la universidad, sino en un 

instrumento  para  conseguir  su  mejora  continua  de  la  calidad  y  su mejora de cara a la valoración de la sociedad.

(31)

Muchas

 

gracias

 

por

 

su

 

atenci

Muchas

 

gracias

 

por

 

su

 

atenci

ó

ó

n

n

Documentos

 

de

 

trabajo

 

utilizados

 

para

 

la

 

elaboración

 

de

 

la

 

ponencia

 Pérez Esparrells, C. y López García, A. (2009): “Estado de la cuestión de los 

rankings universitarios nacionales e internacionales”, Documento de Trabajo 

DU04, Univnova. (www.univnova.org)

http://www.univnova.org/documentos/270.pdf

 Pérez  Esparrells,  C.  y  Gómez  Sancho,  J.M.  (2010):  “Los  rankings

internacionales de las instituciones de educación superior y las clasificaciones 

universitarias  en  España:  visión  panorámica  y  prospectiva  de  futuro”, 

Colección de Documentos de Trabajo de la Fundación de las Cajas de Ahorro 

(FUNCAS), núm. 559/2010. (www.funcas.org)

Referencias

Documento similar

La campaña ha consistido en la revisión del etiquetado e instrucciones de uso de todos los ter- mómetros digitales comunicados, así como de la documentación técnica adicional de

You may wish to take a note of your Organisation ID, which, in addition to the organisation name, can be used to search for an organisation you will need to affiliate with when you

Where possible, the EU IG and more specifically the data fields and associated business rules present in Chapter 2 –Data elements for the electronic submission of information

The 'On-boarding of users to Substance, Product, Organisation and Referentials (SPOR) data services' document must be considered the reference guidance, as this document includes the

In medicinal products containing more than one manufactured item (e.g., contraceptive having different strengths and fixed dose combination as part of the same medicinal

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

This section provides guidance with examples on encoding medicinal product packaging information, together with the relationship between Pack Size, Package Item (container)