Las grandes revoluciones del Management
Resumen del libro

Las grandes revoluciones del Management

por Michael Mol y Julian Birkinshaw

Las principales innovaciones históricas en la gestión de procesos, las finanzas y los recursos humanos

Introducción

 

Los directivos son inventores e investigadores incansables. Intentan nuevos enfoques. Lanzan ideas para sondearlas. Experimentan y prueban. Al hacerlo, las prácticas que utilizamos para gestionar nuestras empresas cambian de modo fundamental. La forma actual de dirigir es considerablemente diferente de la utilizada por quienes dirigían las empresas hace tan sólo una generación.
Las Grandes Revoluciones del Management es un libro acerca de las innovaciones en gestión, de las que presenta una selección muy estimulante de entre las más importantes realizadas en los últimos 150 años, examinando su impacto en la gestión actual. Pero también examina cómo se produjo el proceso de innovación en sí, el papel de los innovadores clave de la gestión y la manera en que consiguieron superar una desconcertante colección de obstáculos.
La historia nos ofrece una mejor perspectiva del presente, según las conocidas palabras de George Santayana: “Los que no pueden recordar el pasado están condenados a repetirlo”. Así pues, si comprendemos las lecciones de las generaciones previas en las empresas, estaremos mejor equipados para tomar decisiones informadas en las organizaciones para las que trabajamos.
En este resumen nos centraremos en las tres áreas principales de la gestión empresarial: los procesos, el dinero y las personas. Comenzamos la historia...

 


Publicidad
Ofertas en las tiendas Amazon: libros, informática, teléfonos, fotografía, televisión, moda

Proceso

¿Cómo pueden las empresas conseguir el máximo rendimiento de sus procesos de trabajo, en términos de productos deseables por parte de los clientes, con el mínimo esfuerzo? ¿Cuáles son los procesos que deben emprenderse para servir a los clientes y cómo deberían diseñarse? El objetivo de las innovaciones en gestión relativas a los procesos de trabajo es conseguir que las compañías sean más eficaces y estén mejor controladas.
El lugar de trabajo está repleto de procesos que convierten lo que entra en productos comercializables. La capacidad de una compañía para conseguir que sus procesos sean eficaces y efectivos juega un papel muy importante a la hora de determinar su competitividad en el mercado, y más de una ha construido su reputación a partir de la excelencia en los procesos.
La historia de las innovaciones en los procesos comienza con la gestión científica, y con el hombre que algunos consideran padre de todo lo malo que hay en la gestión, Frederick Winslow Taylor. Taylor trabajaba en la acerera estadounidense Midvale a finales del siglo XIX, y más tarde en Bethlehem Steel. Impulsado por una intensa ética del trabajo y por la creencia de que desperdiciar esfuerzos era algo injustificado, cronometró las actividades de sus trabajadores para descubrir cómo podían realizarse mejor e introdujo los planes de pago según el rendimiento. La base de la gestión científica era una propuesta muy sencilla: vamos a medir la mejor manera de realizar un proceso concreto -Taylor pensaba que la mayoría de los trabajadores “ganduleaba”, bajando deliberadamente su ritmo de producción- y lo rediseñaremos en función de los cálculos. Aunque el predominio dado por Taylor a la eficacia llevó a muchos a pensar que desatendía las cuestiones de la motivación humana (algunos piensan que en la gestión científica subyace el trato a las personas como si fueran robots), tuvo una gran repercusión y sus ideas continúan influyendo en la forma en que las empresas gestionan el lugar de trabajo.
Otra innovación muy celebrada de la época anterior a la guerra fue la introducción de la cadena de montaje móvil por Henry Ford en 1910. Aprovechando lo que había visto en otras industrias, básicamente en las cadenas de despiece de los mataderos locales, Ford utilizó la tecnología de la cinta transportadora para “llevar el trabajo hasta los hombres” en lugar de ser los hombres los que tenían que ir hasta el trabajo. Y reestructuró la tarea de los empleados individuales a partir de tareas independientes entre sí, lo cual permitió mejorar sustancialmente el rendimiento de cada empleado. En sus propias palabras: “El hombre que pone un tornillo, no pone la tuerca; el hombre que pone la tuerca, no la aprieta... en la fábrica, todo se mueve; puede moverse colgado de un gancho, en cintas elevadas... puede desplazarse sobre una plataforma móvil, o puede aprovechar la fuerza de la gravedad, pero la idea es que no puede tomarse ni transportarse nada... Ningún trabajador realiza ninguna tarea relacionada con mover nada”. La gestión científica y la cadena de montaje móvil cautivaron a todos y marcaron la pauta para la excelencia en producción durante décadas.
No fue hasta después de la Segunda Guerra Mundial que apareció la siguiente gran innovación en la gestión de procesos. Enfrentadas a un enorme esfuerzo de reconstrucción después de la guerra, Toyota y otras compañías japonesas se dejaron fascinar por el potencial de las mejoras que iban a permitirles eliminar costes de sus procesos de producción. Este modelo se conoció luego como producción ajustada y se basaba en reducir al máximo el desperdicio de materiales y esfuerzos. La producción ajustada era, en realidad, el concepto paraguas. Las verdaderas innovaciones en gestión, muchas de las cuales fueron empleadas por primera vez por Toyota, eran técnicas específicas como Just in Time (JIT), Kanban y el costo objetivo. Just in Time era el principio de que el inventario representaba un derroche y las entregas de suministro deberían producirse sólo cuando son necesarios; el Kanban, que significa tarjeta móvil en japonés, era un sistema de identificación para gestionar el flujo de piezas hasta la cadena de montaje. Solo se solicitaban materiales cuando se necesitaba en algún punto de la cadena de montaje. El Kanban, un sistema que utilizaba tarjetas como ayudas visuales colocadas por toda la planta, ayudó a producir el número correcto de piezas y a reducir los inventarios y los defectos. El costo objetivo era un invento contable de la década de 1960 según el cual Toyota acordaba los costos objetivos con sus proveedores en función de unos estudios detallados de los diseños y los procesos de cada proveedor.
Toyota y otros productores japoneses consiguieron pasar inadvertidos durante el tiempo suficiente como para poder conseguir grandes cuotas en los mercados automovilísticos mundiales. Los estudiosos Womack, Roos y Jones son los que deben llevarse el mérito de acuñar el término “producción ajustada”, aparecida en su libro “La máquina que cambió el mundo” (1991). Tras visitar una planta de Toyota en Takaoka (Japón) escribieron:
No había prácticamente ningún tiempo muerto entre el taller de soldado y la cabina de pintado, ni entre la pintura y el montaje final. Y no había ningún almacén de piezas. En lugar de ello, las piezas se suministraban directamente a la cadena de montaje a intervalos de una hora desde las plantas de los proveedores, donde habían acabado de fabricarse.
Los principios y prácticas de la producción ajustada se utilizan actualmente en una amplia variedad de sectores de producción y de países, desde la producción de bicicletas en China hasta la construcción de maquinaria para la extracción de aceite de oliva en Italia o la modernización de la red de metro de Londres. Algunos gobiernos han intentado activamente fomentar la producción ajustada entre las empresas locales, y el concepto “ajustado” se ha aplicado a otros procesos comerciales, como la innovación. La noción de “ajustado” es tan potente porque captura la esencia de lo que debería hacer un proceso de transformación: tomar lo mínimo posible y convertirlo en lo máximo posible.
En la década de 1950, Toyota y otras empresas japonesas empezaron a experimentar con la gestión de la calidad total (TQM, del inglés Total Quality Management), un conjunto de conceptos que habían estado promoviendo W. Edwards Deming y Joseph Juran. Hay que recordar que, al terminar la Segunda Guerra Mundial, Japón estaba en el bando perdedor y junto a la pérdida de su capacidad productiva contaba con el factor desfavorable de que había muy poca demanda de productos “made in Japan”, ya que eran considerados de baja calidad.
La TQM consideraba que la calidad era responsabilidad de cada uno de los trabajadores y no de algún experto en calidad contratado para estos temas. Según la TQM, los niveles de calidad deseados se definen desde la perspectiva del cliente. El objetivo es alcanzar estos niveles de calidad con cero defectos. Para que sea posible llegar a los cero defectos, es necesario un flujo continuo de mejoras en los procesos. La estadística ofrece un medio para analizar los defectos y sus causas, y, de ahí, conseguir las mejoras de calidad prefijadas. Así pues, en lugar de poner el acento en la inspección del trabajo una vez realizado, la atención debe desplazarse hacia la prevención de los defectos por parte de empleados y directivos, independientemente de si trabajan en producción o en alguna función de apoyo, o incluso en alguna empresa proveedora. La combinación de producción ajustada y TQM fue arrolladora: la primera generó importantes ventajas en eficiencia y productividad y, la segunda, se aseguró la preferencia de los consumidores al aumentar la calidad de los productos.
Aunque los principios de la producción ajustada y de la gestión de la calidad total continúan siendo muy importantes para la mayoría de las operaciones de producción actuales, durante los últimos treinta años han aparecido otras muchas innovaciones en los procesos –algunas muy exitosas y otras no tanto.
Una de las innovaciones de menor éxito fue la de los experimentos realizados por Volvo en la década de 1970 con la fabricación celular, gracias a los cuales la compañía llegó a ser muy conocida. Debido a unos altos índices de absentismo y a las presiones del gobierno sueco para que pusiera en marcha iniciativas de calidad de la vida laboral, Volvo se olvidó de la cadena de montaje tradicional y en su lugar creó unas pequeñas células de trabajadores con múltiples habilidades para que montaran el automóvil por completo. La fabricación celular supuso algunas mejoras genuinas en la satisfacción de los trabajadores y en la calidad, pero a la larga estas mejoras no fueron suficientes para compensar las pérdidas de eficacia absoluta, y Volvo terminó abandonando dichos experimentos.
Dos adaptaciones importantes de la producción en serie tradicional, ambas surgidas durante la década de 1980, fueron la personalización en serie y la modularización. En ambos casos, el punto de partida era la necesidad de hacer frente a la cada vez mayor diversidad en la demanda de los clientes, y al mismo tiempo no sacrificar las ventajas de producción en serie en lo relativo a la eficacia. La personalización en serie buscaba aprovechar los cada vez más sofisticados procesos de automatización informatizados para configurar un producto según las especificaciones exactas de cada cliente y, al mismo tiempo, seguirlo fabricando en una cadena de producción. El concepto de la modularización era más adecuado para el ámbito cada vez más destacado del desarrollo del software. Lo que pretendía era dividir el desarrollo de un sistema en una serie de módulos separados pero interconectados, de manera que cada módulo pudiera modificarse según las necesidades de los clientes sin tener que realizar ningún cambio general en el resto de los módulos.
Actualmente la personalización en serie se utiliza en muchas empresas, tanto en la producción como en los servicios. Las compañías de servicios de gran éxito como Starbucks y Subway, dirigen sus operaciones en función del modelo de personalización en serie, cuidando a los clientes según sus deseos. La personalización en serie funciona especialmente bien en productos de alta gama, ya que dentro de este segmento las necesidades de los clientes suelen ser más variadas y éstos están más dispuestos a pagar un precio más elevado.
A principios de la década de 1980 nació en Estados Unidos –en parte como reacción al malestar por la supremacía de las empresas japonesas- la reingeniería de procesos comerciales (BPR, del inglés Business Process Re-engineering) que era una variante moderna de la gestión científica de Taylor, aunque con el añadido de una importante dosis de producción ajustada. La BPR adoptaba básicamente una perspectiva de proceso sobre las actividades de las empresas y ofrecía una serie de herramientas para racionalizar los procesos de valor añadido emprendidos por la compañía y eliminar lo sobrante. Otro aspecto de la BPR es que busca un cambio radical, y no parcial. Y la BPR aprovecha las nuevas tecnologías de la información para automatizar los procesos siempre que sea posible y necesario. Tal y como escribió Michael Hammer, uno de los partidarios de la BPR más conocidos: “Si hoy tuviera que volver a crear esta compañía, teniendo en cuenta lo que sé y la tecnología actual, ¿cómo lo haría?
Las mejoras que busca la BPR incluyen costes más bajos y tiempos de ciclo más cortos, lo cual se consigue eliminando las actividades innecesarias, a los empleados que las ejecutan y los niveles jerárquicos que las gestionan. La reingeniería, como se llamaba abreviadamente a la BPR, se convirtió en algo muy popular y en boga, pero con el tiempo el término se asoció claramente con los recortes de personal. Muchas empresas que necesitaban alguna excusa para reducir su plantilla, anunciaban que iban a poner en marcha un proceso de reingeniería. Todas las grandes compañías han realizado en algún momento algún proceso de reingeniería, y actualmente se utilizan muchos de sus principios. Pero al igual que si alguien habla de producción científica es probable que se le acuse de esclavista, hablar de reingeniería a las claras muchos lo identifican con capitalismo “salvaje”.
En las décadas de 1980 y 1990 se puso en marcha la revolución de la gestión de la cadena de suministro (SCM, del inglés Suply Chain Management). La gestión de la cadena de suministro, un término introducido por la firma de consultoría estadounidense Booz Allen Hamilton en 1982, y más tarde la integración de la cadena de suministro explorada por Dell a principios de la década de 1990, ampliaron la noción de los procesos eficaces y controlados más allá de los límites de una empresa para incluir a los actores de la cadena de suministro. Estas innovaciones pretendían mejorar la eficacia de toda la cadena de suministro, dejando de centrarse exclusivamente en aquellas actividades propias de una compañía.
La última gran innovación en la gestión de procesos es seis sigma, introducida por John Smith en Motorola en 1987 y luego asumida por General Electric. Seis sigma era una extensión lógica de la gestión de la calidad total, ya que aplicaba mecanismos estadísticos de control de procesos para eliminar defectos pero en una escala mucho más extensa. TQM se fijaba como meta los cero defectos, pero veía como aceptable que en una fábrica se produjera un defecto por cada mil productos elaborados. Por el contrario, en seis sigma el objetivo de los cero defectos se mantenía pero todos los procesos productivos tenían que ajustarse para que nunca se produjeran más de 3,4 defectos por cada millón de productos fabricados. Con el tiempo seis sigma, se convirtió en una de las grandes innovaciones en gestión (tanto en fábricas como en empresas de servicios) de los noventa gracias, en parte, a la eficaz manera de empaquetar las herramientas y los métodos para su uso por parte de otras empresas.
Como hemos visto, considerada en su conjunto, la gestión de procesos ha evolucionado de manera básicamente lineal y directa. Las innovaciones parten normalmente de innovaciones previas, y las mejoras en eficacia y calidad a lo largo del último siglo son innegables.

Publicidad
Ofertas en las tiendas Amazon: libros, informática, teléfonos, fotografía, televisión, moda

Dinero

¿Cómo pueden asignarse los recursos financieros a las nuevas oportunidades de la manera más eficaz posible? ¿Cómo puede medirse y evaluarse el rendimiento de las actividades existentes? El objetivo de las innovaciones en el campo del dinero es alcanzar los objetivos financieros de la empresa y sus accionistas.
El punto de partida habitual en la historia de las innovaciones en finanzas es el invento de la contabilidad por partida doble por parte de Luca Paciolo en 1494 en Venecia, que permitió que las empresas de su tiempo pudieran realizar un seguimiento de sus activos y pasivos en lugar de trabajar sólo en función del dinero entrante y saliente.
La siguiente ola de innovaciones en contabilidad se remonta al siglo XIX, con la introducción de los análisis coste-beneficio como medio para evaluar los costes y los beneficios antes de decidir poner en marcha un proyecto en particular, y después con la contabilidad de costes para que las empresas pudieran disponer de información detallada sobre los inductores de costes de varias actividades. El invento de las contabilidad de costes permitió realizar un seguimiento, registrar y analizar los costes asociados a los productos o actividades de una empresa. La práctica de la contabilidad de costes evolucionó desde el simple registro de los costes históricos, hasta la asignación de una parte de los costes fijos de un período de tiempo concreto a los artículos producidos durante este tiempo. Ello permitió que los negocios pudieran evaluar los costes totales de producción.
Las empresas pudieron definir como coste estándar un coste predeterminado que tenía en cuenta un cierto nivel aceptado de costes de mano de obra, gastos generales y demás. A continuación, el coste estándar se utilizaba como referencia a partir de la cual se juzgaba el rendimiento y se medía la eficacia. Así pues, si yo creo que el hecho de realizar una tarea concreta en un tiempo concreto debería costarme X, teniendo en cuenta todos los costes, esta unidad de medida me permitirá medir mi rendimiento y eficacia en esta tarea. En palabras de Andrew Carnegie, el propietario de la acerera norteamericana y uno de los primeros en introducir la contabilidad de costes: “Antes de este sistema contable éramos como topos cavando en la oscuridad... La contabilidad de costes nos enseñó qué hacía cada hombre, quién ahorraba material, quién lo malgastaba y quién producía los mejores resultados”.
A principios del siglo XX, la empresa química norteamericana Du Pont introdujo el concepto de rendimiento de la inversión (ROI, del inglés Return on Investment), que por primera vez permitía comparar objetivamente las diferentes actividades. Más recientemente, el ROI se ha calculado simplemente restando los costes de inversión de los beneficios y después dividiendo el resultado por los costes de inversión. Los directivos que utilizan el ROI se hacen la siguiente pregunta: ¿cuál de las alternativas disponibles para inversiones deberían recibir estos recursos? El ROI permite comparar mucho más directamente el rendimiento de múltiples divisiones de una empresa o incluso de múltiples empresas, que quizá operan en diferentes sectores industriales. Puesto que el ROI es una medida objetiva, son necesarios menos juicios para evaluar las opciones de inversión.
A pesar que el ROI es considerado por muchos como una de las innovaciones clave ocurridas en la contabilidad, también tiene sus detractores. Algunos han comentado que el trabajo con el ROI –y otras medidas similares como el ROA, ROE o EBITDA) lleva a concentrarse en exceso en el éxito financiero a corto plazo en detrimento de otros indicadores también importantes para el éxito de una empresa, como la cuota de mercado o la satisfacción de clientes y empleados. Además, si los directivos y empleados se juzgan a partir de un único criterio de éxito, se convierten en muy eficientes en la manipulación de los resultados del criterio en cuestión. El invento del cuadro de mando integral –que veremos más adelante- puede considerarse una respuesta a esta atención limitada a las unidades de medida financieras como únicos indicadores del éxito.
Unos años más tarde del ROI se introdujo el flujo de efectivo descontado (DCF, del inglés Discounted Cash Flow) como el modo de incluir el valor temporal del dinero como un factor a tener en cuenta al tomar decisiones sobre inversiones.
En la década de 1960 ya se habían aplicado las técnicas básicas de contabilidad y de elaboración de presupuestos, pero, evidentemente aún quedaban muchos retos. La cada vez mayor complejidad de las compañías hacía que fuera mucho más difícil asignar los costes de una manera justa a las diferentes actividades; la necesidad de controlar los diversos activos provocó que las compañías adoptaran unos sistemas de presupuestos altamente estandarizados; y la importancia cada vez mayor de los activos de “conocimiento”, en detrimento de los activos físicos como fábricas y los equipos, hizo que fuera mucho más difícil asignar un valor a las empresas. En respuesta a todos estos retos, los directivos y los estudiosos empezaron a experimentar con una amplia variedad de técnicas innovadoras.
Una de las líneas de innovación pretendía controlar mejor los costes reales de las actividades de una empresa, y su resultado fue la introducción en las fábricas de la empresa norteamericana de herramientas agrícolas John Deere de los costes basados en actividades (ABC, del inglés Activity-Based Costing) a principios de los años ochenta. Los sistemas de contabilidad tradicionales evaluaban en primer lugar los costes directos, como las materias primas o los servicios comprados externamente, y después añadían un cierto porcentaje de costes indirectos en función de los gastos generales que se producían en los diversos departamentos y demás divisiones de la organización. No obstante, a menudo surgían distorsiones debido a que se asumía que los recursos se consumían en relación directa con el número de artículos producidos.
Cuando estos cálculos de costes distorsionados se utilizaban para determinar los precios de los productos, los problemas potenciales se convertían en reales –algunos productos se vendían a precios inferiores a la tasa de rentabilidad aceptable, mientras que los productos de precio excesivo se vendían poco, con lo cual el efecto neto sobre la rentabilidad era altamente negativo. Los costes basados en actividades se presentaron como una solución a este problema. ABC intenta determinar los costes reales de cualquier producto concreto. Ello se consigue sacando los costes generales del libro mayor y asignándolos a actividades concretas. Cuando un producto genera la necesidad de una cierta actividad se aplica lo que se conoce como inductor de costes y, en función del nivel de esta demanda, al producto se le asignan unos costes. Con ello pueden fijarse con mayor precisión los precios de los productos, y con frecuencia eso conduce a un replanteamiento de la cartera de productos una vez las compañías descubren cuáles de ellos generan beneficios y cuáles no.
Una segunda línea de innovación se concentró en superar las limitaciones de los sistemas tradicionales de elaboración de presupuestos. Por ejemplo, Texas Instruments introdujo el concepto del presupuesto de base cero en 1969 para que sus directivos empezaran cada ciclo presupuestario con una “hoja de papel en blanco”, en lugar de realizar un ajuste incremental a partir de los números del año anterior. En 1983 aparece la gestión de libro abierto, idea que puede atribuirse a Springfield Remanufacturing, que implicaba comunicar la información financiera a todos los empleados para que así comprendiesen los resultados financieros de la compañía y, en consecuencia, se comprometieran más con su mejora.
Otra línea de innovación en contabilidad fue la introducción de sistemas para supervisar y asignar un valor a los activos intangibles de las empresas. El planteamiento más conocido en esta línea es el cuadro de mando integral, que fue utilizado por primera vez por Analog Devices a finales de la década de 1980 y que posteriormente se divulgaría en el mundo entero a través de los libros de Robert Kaplan y David Norton.
Todos los directivos conocen el mantra de “lo que se puede medir, se puede cambiar” y, desde hace cien años, esta obviedad se ha reflejado en el desarrollo de una compleja serie de proporciones, unidades de medida, herramientas analíticas y paquetes de software, la mayoría concentrados en medir el rendimiento financiero. La medición de otros elementos más abstractos del rendimiento corporativo –como la fidelidad de los clientes o la satisfacción de los empleados- a menudo no se ha tomado en cuenta. El cuadro de mando integral se presentó como un sistema de gestión estratégica y de medición que vinculaba los objetivos estratégicos con indicadores integrales.
Reconocía que las empresas tienen una cierta tendencia a fijarse en unas pocas mediciones, lo cual no les permite evaluar el rendimiento general del negocio. El cuadro de mando integral ayudó a que los directivos concentraran su atención en una serie de indicadores clave del rendimiento para así disponer de una visión de conjunto más equilibrada.
La innovación en contabilidad continúa cobrando forma, impulsada por la evidencia de que los aspectos cada vez más importantes de un negocio (las oportunidades emergentes, el riesgo, los activos intangibles) son los más difíciles de medir con precisión. Tal y como observó Gary Hamel: “Las compañías deberían medir su éxito no en función de si aún siguen trabajando y ganando dinero, sino en función de las muchas oportunidades que han dejado escapar”.

Publicidad
Ofertas en las tiendas Amazon: libros, informática, teléfonos, fotografía, televisión, moda

Personas

En la evolución de la gestión de las personas, el progreso no ha seguido ningún camino predecible, y por cada dos pasos adelante dados en algún momento, se ha dado después un paso y medio hacia atrás. Así que la historia de la gestión de las personas es una obra que podemos decir que se ha escrito en tres actos.
Acto I. Los primeros registros detallados sobre el modo en que los empresarios comenzaron a tomarse en serio el bienestar y la motivación de sus empleados, se remontan a la década de 1800, cuando varias conocidas compañías de diferentes países realizaron grandes progresos en lo que después fue conocido como bienestar corporativo.
A principios del siglo XIX, la Revolución Industrial había provocado la aparición de las verdaderas compañías manufactureras y, junto a ellas, la aparición de la clase obrera. Tradicionalmente, se consideraba que lo único que ofrecía la empresa a los empleados era un salario. Pero los trabajadores reclamaban algo más que dinero. En consecuencia, durante todo el siglo fueron surgiendo problemas sociales y algunas empresas, entre las que destacó en primer lugar la acerera alemana Krupp asentada en Essen (Alemania), accedieron a las nuevas peticiones. Esta época vio el nacimiento de innovaciones como las pensiones, los programas de atención sanitaria o la vivienda proporcionada por la empresa, entre otras ventajas.
Esta serie de innovaciones estaban destinadas a una mayor atención a los trabajadores en aras a que fuesen más productivos y felices en su trabajo, y también para mejorar los estándares morales de la compañía. Evidentemente, podríamos discutir qué es lo que motivó a Alfred Krupp y al resto de empresarios a invertir en el bienestar corporativo. Independientemente del motivo, el movimiento de bienestar corporativo favoreció la introducción de muchas ventajas a las que las generaciones previas de trabajadores no habían tenido acceso.
Alguno de los programas introducidos por las empresas como parte del bienestar corporativo han terminado siendo asumidos por los gobiernos o las compañías de seguros. Pero el principio de que se deben ofrecer a los empleados algunas prestaciones más allá del salario está más vivo que nunca, especialmente en los países altamente desarrollados donde hay escasez de empleados cualificados. Lo que normalmente se conoce como “guerra por el talento”, obliga a las compañías a presentar unas ofertas de contratos que van mucho más allá de los salarios.
En los últimos años del siglo XIX se colocaron muchas de las piedras angulares de la empresa moderna. Una de estas innovaciones, introducida por las compañías ferroviarias norteamericanas, fue la aparición de los directivos profesionales, diferentes de los directivos-propietarios. A partir de entonces, ser directivo se convirtió en una profesión, como ser médico o abogado.
Unos treinta años después de la aparición de los directivos profesionales, la necesidad de delegar responsabilidades en un cuerpo de directivos era mayor que nunca y la conveniencia de disponer de personas cualificadas era apremiante. En esta tesitura se encontraba Joseph Wharton, director de la Bethelehem Iron Company. A Wharton le resultaba difícil encontrar líderes empresariales para su empresa. En aquella época, había lo que se conocía como “escuelas empresariales” pero, según Wharton, estas escuelas producían oficinistas y no líderes empresariales cultos.
Así, en 1881 decidió donar 100.000 dólares a la Universidad de Pensilvania para la creación de una facultad que formase a hombres de negocios y líderes para que las grandes empresas y los gobiernos pudieran disponer de una reserva de empleados potenciales entre los que elegir. La Wharton School de la Universidad de Pensilvania se convirtió en la primera escuela de negocios del mundo. Su modelo de formación se fue abriendo camino tras superar las dificultades iniciales y otras universidades siguieron su estela, como la de Chicago (en 1998), la de California en Berkeley (en 1898) y la Harvard University (en 1908). En otros países se necesitarían aún muchas más décadas. En el Reino Unido, por ejemplo, las escuelas de negocios no empezaron a aparecer hasta de década de 1960.
Llegamos al final del primer acto. El acento en el bienestar de los empleados cayó en picado durante los primeros años del siglo XX a medida que la gestión científica fue ganando importancia. Como ya vimos anteriormente, la gestión científica se convirtió en la manera predominante de mejorar la productividad y el rendimiento tanto en Estados Unidos como en muchos países de Europa, y durante este período no se produjo ninguna innovación en el campo de la gestión de las personas. De repente, los procesos pasaron a ser más importantes.
El Acto II es habitualmente conocido como el movimiento de las relaciones humanas. Comenzó a tomar forma a finales de la década de 1920 y continuó siendo la tendencia de pensamiento dominante sobre la gestión de personas hasta la década de 1960, aunque con muchas curvas a lo largo del camino. La era de las relaciones humanas empezó con los famosos Estudios Hawthorne de motivación de los empleados en la planta de Illinois de Western Electric –donde se estudió detalladamente la productividad de un pequeño grupo de empleados mientras se iban realizando ajustes en el entorno de trabajo.
Pero aunque en la década de 1930 aparecieron multitud de nuevas teorías sobre la motivación, la implicación de los empleados y demás temas relacionados, existen muy pocas pruebas de que se aplicaran genuinamente nuevas formas de trabajar. Una excepción es el salario ligado al rendimiento o los experimentos de participación en los beneficios realizados en Estados Unidos, el más famoso de los cuales es el Plan Scanlon.
Joe Scanlon tuvo una carrera muy colorista: fue boxeador, contable de costes y presidente de sindicato antes de convertirse en profesor de relaciones industriales en el MIT. Scanlon era presidente del sindicato local de trabajadores siderúrgicos cuando una fábrica local de Ohio fue amenazada de cierre. Reunió a los trabajadores y a los directivos para que idearan un plan de productividad conjunto. El sindicato y la dirección acordaron un nivel de productividad: si los trabajadores conseguían trabajar más productivamente, a un coste más bajo por unidad, recibían una prima en función de los ahorros. Un aspecto clave de este plan es que no era competitivo y que en lugar de dar prioridad al individuo por encima del equipo, recompensaba los esfuerzos de la empresa en su conjunto.
El plan funcionó y, aún mejor, consiguió que la fábrica fuera rentable. El Plan Scanlon se aplicó en otras muchas empresas aunque presentaba el problema de que no diferenciaba entre los que trabajaban mucho y los que se lo tomaban con calma. De todas formas, el efecto general de las innovaciones de Scanlon es muy amplio. Por ejemplo, en el otro extremo de la escala corporativa en el que empezó Scanlon, los altos ejecutivos se embarcaron en la segunda mitad del siglo XX en sus propios planes de incentivos, lo que desembocó en un notable uso de las opciones sobre acciones como parte de los incentivos económicos totales. De todos es conocido el desprestigio del sistema de opciones sobre acciones debido a los escándalos en su manipulación y a los abusos cometidos en grandes corporaciones.
Estas cuestiones ilustran una verdad fundamental de los salarios relacionados con el rendimiento: es imposible crear un plan que motive a todos los trabajadores y que al mismo tiempo sea visto como justo y actúe en interés de los accionistas. Las compañías continúan experimentando con modelos diversos para solucionar los puntos débiles de su modelo actual, y cada vez vemos más de ellas, como The Body Shop, Patagonia y Whole Foods Market, que intentan apelar a sus empleados mediante motivaciones no financieras, como, por ejemplo, una mayor sensación de tener un rumbo en la vida.
En las décadas de 1950 y 1960, a medida que los directivos eran cada vez más profesionales, surgió un nuevo reto: encontrar candidatos con el talento adecuado para los cargos dirigentes. Una de las soluciones desarrolladas para llevar a cabo esta selección fueron los centros de evaluación. En un centro de evaluación se sigue un proceso en el que se realizan diversas pruebas (objetivas, proyectivas y situacionales), entrevistas y otros métodos que juzgan las capacidades de aquellos a los que se evalúa. Los centros de evaluación utilizados para identificar al personal interno con un alto potencial eran también conocidos como centros de desarrollo.
Las primeras en utilizar múltiples procesos de evaluación a una escala importante fueron las organizaciones militares, que los aplicaban para reclutar oficiales durante la Segunda Guerra Mundial. Actualmente, el uso de los centros de evaluación está muy generalizado. Se cita como ejemplo paradigmático al fabricante de automóviles Toyota, que evaluó a 22.000 candidatos para contratar al personal de su planta de 3.000 trabajadores de Kentucky. Los centros de evaluación también utilizan adelantos tecnológicos para mejorar su fiabilidad y validez, como la filmación en vídeo de los evaluados.
A finales de la década de 1940, el mundo se estaba recuperando de la devastación provocada por la Segunda Guerra Mundial. Después de un intenso período de conflicto global, muchos países, como Estados Unidos, estaban intentando solucionar los conflictos internos entre las distintas comunidades. Al mismo tiempo, la idea tradicional de concebir una empresa como una máquina y a sus empleados como piezas móviles, estaba perdiendo peso a favor de una visión más humanista de las empresas como comunidades en crecimiento.
Según parecía, lo que se necesitaba eran nuevas maneras de entender el comportamiento de los individuos y nuevos tipos de formación para hacer frente a los problemas relacionados con éstas, como los conflictos personales y el comportamiento inadecuado o improductivo.
Durante unos cuantos años de la década de 1950, la respuesta a estos problemas parecía hallarse en los grupos de formación, o grupos T, ideados por el psicólogo Kurt Lewin. En 1940 Lewin realizó un estudio en los clubes de chicos de la ciudad de Iowa. En cada uno de estos clubes, se colocaron a sujetos con diferentes estilos de liderazgo, y Lewin y sus colegas registraban las maneras en que respondían y trabajaban estos grupos. El estudio permitió descubrir que los grupos más democráticos eran los que trabajaban con mayor eficacia. No parece una conclusión muy sorprendente, pero en una época aún dominada por la gestión científica, la dictadura corporativa era algo de lo más habitual.
En 1946, varias instituciones de integración racial pidieron ayuda a Lewin en la formación de líderes comunitarios con el objetivo de favorecer la mejora de las relaciones dentro de sus comunidades locales. En New Britain, Connecticut, la formación implicó a tres grupos de aprendizaje continuos. Cada grupo tenía un líder, un observador y varios participantes. Los observadores registraban los resultados y después los discutían.
En un momento concreto, varios participantes solicitaron asistir a una sesión de los observadores, y Lewin accedió. Durante la discusión que siguió, una participante se mostró en desacuerdo con la interpretación hecha por un observador ante el comportamiento mostrado por ella misma en ese mismo día. A ello le siguió una discusión sobre los comportamientos y sus interpretaciones, y después del éxito de esta discusión otras sesiones similares a esta se convirtieron en uno de los componentes principales de la conferencia. Lewin había descubierto un nuevo método de aprendizaje –a través de la experiencia en la discusión grupal y no a través de las conferencias.
Lewin creía que reunir a grupos de personas era una manera muy potente de poner al descubierto áreas de conflicto. La teoría subyacente a los grupos T era que los patrones de comportamiento tenían que descongelarse antes de poderse cambiar. Los grupos T eran un medio para conseguirlo.
La influencia de estos estudios ha sido enorme sobre toda una generación de profesores de escuelas de negocios. De hecho, muchos de los planteamientos actuales sobre la autorreflexión y el trabajo en grupo son atribuibles a las ideas originales de Kurt Lewin en la década de 1940.
La década de 1960 fue de intensa agitación social en el mundo de los negocios. En Estados Unidos, las ideas de los principales pensadores del mundo empresarial, como Douglas McGregor o Warren Bennis, fomentaban la atención continua en el “lado humano de la empresa”. Pero en muchas empresas existía una enorme brecha entre la retórica de la calidad de la vida laboral y la realidad de sus prácticas de gestión. Aunque durante ese período se realizaron muchos experimentos, el nivel de satisfacción con los resultados obtenidos fue muy diverso.
Quizá el experimento más conocido en cuanto a la calidad de la vida laboral fue el de la fábrica de Topeka, Kansas, de General Foods. Dos directivos de esta empresa, Lyman Ketchum y Ed Dulworth, convencieron a los altos ejecutivos para invertir en una nueva fábrica de comida para perros. La ubicación elegida fue Topeka, Kansas, y recibieron la responsabilidad de diseñarla desde cero a partir de los principios sociotécnicos. No habría supervisores, solo equipos autodirigidos con un liderazgo rotativo. La autoridad se basaría en la capacidad y en la actitud frente al trabajo, y no en el nivel salarial. Dejarían de existir los diferenciadores de estatus tradicionales, como los comedores, los baños y las plazas de aparcamiento exclusivos para directivos. Los equipos tendrían autoridad para realizar cambios en sus prácticas de trabajo sin necesidad de obtener el permiso de sus supervisores, y dispondrían de tiempo libre cada semana para imaginar nuevas maneras de producir comida para perros.
La nueva planta de Topeka abrió en 1970, y muy pronto empezó a batir récords. Expertos en gestión y directivos de fábricas de todo el país empezaron a husmear por Topeka, intentando desentrañar los secretos de su rendimiento sin precedentes.
Aunque en la actualidad los términos de calidad de la vida laboral y sistemas sociotécnicos se utilizan muy raramente, el concepto subyacente de que una fábrica debe conjugar las necesidades sociales de sus empleados con sus imperativos técnicos ha arraigado de una manera muy firme, y se reinventa periódicamente bajo otros nombres, como “equipos de trabajo autodirigidos” o “equipos de trabajo de alto rendimiento”.
Pero continúa abierta una enorme brecha entre la retórica y la realidad de estos sistemas. Existen muchos casos de fábricas que han aplicado estas ideas durante unos cuantos años y después han regresado a la mentalidad de cambio y control. La razón es que este tipo de sistema exige a los directivos que deleguen el poder en lugar de retenerlo, y a los trabajadores que asuman la responsabilidad de su propio destino.
El Acto III se inicia a principios de la década de 1980. Los americanos habían empezado a preocuparse por el auge de Japón como potencia económica y por el aparente declive de su competitividad general, y este malestar se capturó perfectamente en varias obras muy influyentes, especialmente In Search of Excellence de Tom Peters y Robert Waterman, de la que se vendieron millones de ejemplares. Éste y otros libros recordaban a los directivos, una vez más, la importancia del aspecto humano de la empresa, y en especial el valor de desarrollar una cultura empresarial de colaboración. Dos importantes innovaciones que reflejaron este énfasis cada vez mayor en el aspecto humano de la empresa fueron el mentoring y el coaching ejecutivo y la retroalimentación de 360 grados. Estas dos prácticas despegaron en estos años, aunque, de nuevo, en ambos casos puede irse a buscar la idea original mucho más atrás en el tiempo.
La década de 1990 presenció un énfasis continuado en las cuestiones de gestión de las personas, a menudo bajo la pancarta de la atribución de poderes (aunque el concepto de atribución de poderes no es muy diferente del concepto previo de gestión participativa). Aunque fue un período no exento de actividad innovadora, la mayoría de las prácticas novedosas –como los experimentos de la brasileña Semco de aplicar la democracia en el lugar de trabajo y la gestión de libro abierto- tienen sus orígenes en los esfuerzos pioneros de otras compañías en épocas pasadas.

Publicidad
Ofertas en las tiendas Amazon: libros, informática, teléfonos, fotografía, televisión, moda

Fin del resumen ejecutivo
Biografía de los autores
Investigador visitante en la London Business School, Michael Mol es lector de management estratégico en la University of Reading. Su trabajo se especializa en la innovación de management y en la externalización de procesos y servicios.
Profesor de management estratégico e internacional en la London Business School, Julian Birkinshaw es socio del Advanced Institute of Management Research y uno de los fundadores del laboratorio pionero Management Innovation Lab., de la London Business School.
Ficha técnica
Compra del libro
Si has leído el resumen y quieres profundizar más te recomendamos comprar el libro completo, en papel o ebook, aquí