domingo, 23 de abril de 2017

Crean sistema para cultivar peces y plantas en tu hogar


Investigadores de El Colegio de la Frontera Sur (Ecosur) y de la Universidad Juárez Autónoma de Tabasco (UJAT) han desarrollado un sistema que permite a familias de escasos recursos producir en seis meses hasta 120 kilogramos de peces, caracoles y acociles, además de 45 kilogramos de vegetales comestibles, como frijol, chile y cebollín.
ENVIADO POR: INNOVATICIAS.COM / RED / AGENCIAS, 

En México, una parte de la población carece de alimentos suficientes, nutritivos e inocuos para satisfacer sus necesidades energéticas diarias y preferencias alimentarias, ¿cómo contribuir a que sus condiciones de vida mejoren?

Investigadores de El Colegio de la Frontera Sur (Ecosur) y de la Universidad Juárez Autónoma de Tabasco (UJAT) han desarrollado un sistema que permite a familias de escasos recursos producir en seis meses hasta 120 kilogramos de peces, caracoles y acociles, además de 45 kilogramos de vegetales comestibles, como frijol, chile y cebollín.

Se trata del Sistema Acuapónico de Baja Intensidad (SABI) que combina las técnicas de acuacultura e hidroponía, una propuesta encaminada a disminuir la inseguridad alimentaria en Tabasco, pero que bien puede extenderse a todos los estados.

En el país, 46.2 por ciento de la población vive en condiciones de pobreza, según datos del Consejo Nacional de Evaluación de la Política de Desarrollo Social (Coneval). De los mexicanos que habitan zonas rurales, 45.5 por ciento vive en inseguridad alimentaria leve y 22.4 por ciento, en moderada; en tanto que, en ámbitos urbanos 40.6 por ciento tiene inseguridad alimentaria leve y 16.5 por ciento, moderada, de acuerdo con la Encuesta Nacional de Salud y Nutrición (Ensanut) 2012.

 
Este proyecto, con el que Fernando Iriarte Rodríguez busca doctorarse, es una estrategia de producción de alimentos en el traspatio de familias que habitan en zonas rurales o periurbanas, que les permite disponibilidad y acceso a productos frescos, inocuos y nutritivos de manera prolongada.

Es un sistema de bajo costo porque se integra por materiales de uso común en la industria de la construcción y reutiliza instrumentos, como botellas de PET para la instalación de macetas y contenedores plásticos industriales que son usados como filtros.  

Su operación requiere bajo consumo energético, pues se ayuda de una bomba magnética de mínimo consumo para generar la recirculación del agua. En tanto que es ambientalmente amigable, ya que el uso del vital líquido después del llenado es bajo y la descarga de sedimentos mínima, además de que emplea organismos acuáticos nativos con alto potencial acuícola, como el caracol y el acocil, y vegetales que forman parte de la cultura alimentaria de la entidad.

Fernando Iriarte Rodríguez, también profesor investigador de la UJAT, explica a la Agencia Informativa Conacyt que el proyecto surgió hace seis años con el desarrollo del prototipo ingenieril, el cual se ha ido perfeccionando y a la fecha seis sistemas se encuentran en operación en hogares de Villahermosa y en comunidades periurbanas, mientras que uno más está instalado en la sede de Ecosur, en Villahermosa.

¿Qué es la acuaponía?

Es una técnica de producción de especies acuáticas y vegetales inspirada en las técnicas que los aztecas utilizaban a través de las chinampas para aprovechar las excretas de peces y microalgas para nutrir los cultivos de maíz. 

Suma las cualidades de la acuacultura y la hidroponía a través de un sistema de recirculación del agua, para producir de manera sostenible alimentos de alto valor nutritivo, como fuente de proteínas (pescado), de vitaminas y minerales (chile, frijol, jitomate, frutas), con un valioso impacto social y económico a nivel local.

La producción acuapónica es una alternativa en México, donde el sector agrícola es el mayor consumidor de agua al utilizar 65 por ciento de agua dulce consumida en el país. Solo en 2011, 77 por ciento del total de las extracciones hídricas para usos consuntivos en México se destinó al sector agrícola con un consumo de 61.6 kilómetros cúbicos, según datos de la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO, por sus siglas en inglés).

Diversos estudios refieren que esta técnica reduce en 90 por ciento los requerimientos del vital líquido necesario para un cultivo normal de peces; representa una disminución significativa en los costos de cultivo de hortalizas sin que se utilicen grandes extensiones de tierra, pues permite el ahorro de hasta 45 por ciento en fertilizantes debido a que la producción de peces proporciona más de 80 por ciento de los elementos que las plantas necesitan para su desarrollo.

En tanto que los niveles de productividad son importantes, pues se ha documentado que por cada tonelada de pescado producida anualmente, se puede obtener hasta siete toneladas de algún cultivo vegetal.

Sin embargo, estos sistemas no están exentos de los riesgos que representan factores externos como la radiación solar, la temperatura y fenómenos naturales como ciclones y huracanes.

¿Cómo funciona?

La infraestructura de esta iniciativa tecnológica se compone de una tina (alberca), contenedores plásticos industriales, un sistema de tuberías de PVC y botellas de PET recicladas.

El SABI se llena con 15 metros cúbicos de agua, aproximadamente, que puede provenir de la llave, de lluvia o de un pozo, siempre que se sanitice en un sentido básico. Los primeros seres vivos que se siembran son los caracoles, a fin de que generen una flora bacteriana benéfica; tiempo después toca turno a las tilapias, en una proporción de un ejemplar del pez por cada dos caracoles; según lo que han experimentado, se pueden sembrar entre 250 y 350 ejemplares.

El agua sale de la tina a través de un drenaje hacia un primer contenedor, donde se sedimenta la materia orgánica, por procesos bioquímicos naturales, comienza a degradarse la urea y amonio a nitritos.

En un segundo contenedor se deposita un sustrato fabricado que fomenta la colonización por bacterias aerobias, del género Nitrosomona y Nitrobacter, que son las encargadas de hacer el cambio de nitritos a nitratos, debido a que los nitritos son tóxicos para los peces.

El agua que proviene del segundo contenedor es llevada al circuito de cultivo vegetal, que son las tuberías donde se ubican las macetas. En los sistemas implementados por los especialistas de la UJAT y de Ecosur, se colocan 144 macetas, siendo esta la cantidad mínima necesaria para eliminar los metabolitos de hasta 350 tilapias. Las raíces absorben todos los nutrientes del agua, que las hacen crecer produciendo frutos, follaje o semillas. En este proceso, el agua se libera de los metabolitos que pudieran ser perjudiciales para los peces, por la absorción de las raíces que, a su vez, son conservadas limpias gracias a la presencia de acociles.

 

Posteriormente, el agua llega a otro contenedor desde el que se bombea el agua a la tina donde habitan los peces, cerrando el circuito de circulación del agua.

“En este sistema, todos los organismos vivos tienen una función: las tilapias procesan el alimento balanceado produciendo materia orgánica que es consumida por los caracoles; estos la reducen en volumen; las bacterias del tanque sedimentador transforman esa materia a sales de nitrato; las plantas absorben dichas sales minerales; los acociles limpian las plantas al consumir y eliminar sus raíces; de esta manera, el agua proveniente del cultivo vegetal es biológicamente viable para finalmente ser bombeada al cultivo de tilapia”, explica el maestro Fernando Iriarte.

Modelo eficaz

A la fecha, seis familias tabasqueñas se benefician del SABI, actualmente todas lo tienen en operación. El valor agregado que ofrece este sistema —a diferencia de otros modelos que se han desarrollado en México y otras partes del mundo— es que es funcional desde hace casi tres años en el traspatio de los hogares.

A lo largo de este tiempo, Fernando Iriarte Rodríguez y su asesor de tesis, el doctor Manuel Mendoza Carranza —investigador de Ecosur— han validado el sistema, lo han instalado y acompañado a los usuarios en su operación durante los seis meses que dura el primer ciclo de producción.

“Los resultados, independientemente que se obtienen alimentos saludables, libres de toxinas, inocuos y que están siempre ahí, han mostrado beneficios como el incremento de la seguridad alimentaria de las familias, su empoderamiento al consumir alimentos que ellas mismas producen y la organización que tienen para hacerse cargo del sistema”, explica Fernando Iriarte.

Valor académico

El doctor Manuel Mendoza Carranza, investigador del Departamento de Ciencias de la Sustentabilidad de Ecosur, unidad Villahermosa, dice en entrevista que este proyecto tiene múltiples aportaciones desde el punto de vista académico.

En primera instancia, los resultados que está dando el trabajo permitirán que Fernando Iriarte obtenga el grado de doctor. La segunda es que aporta adecuaciones novedosas en su funcionamiento respecto a otros sistemas a nivel nacional e internacional, lo cual tendrá un fuerte impacto científico-tecnológico.

Señala que otra valía del sistema es su planteamiento económico y productivo. “El primer experimento que se hizo fue para validar su eficiencia, tanto de manejo como de la parte económica-productiva, resultando que los sistemas que tenemos instalados, casi todos tienen un comportamiento semejante, quiere decir que tenemos un sistema homogéneo y que desde el punto de vista científico está probando su eficiencia”, abunda.

Hasta el momento ya contemplan la elaboración de un par de artículos científicos, uno enfocado en las características técnicas del sistema, cuánto se siembra y se produce; y un análisis económico evaluando que si una persona invierte en la instalación del SABI en su hogar, en qué tiempo verá recuperada su inversión.

Adicionalmente, el SABI está probando que puede ser utilizado para sembrar más de 90 especies diferentes de plantas, entre ellas, tubérculos como rábano y ajo, de los cuales no se sabía que era posible producirlos por acuaponía.
Cabe señalar que está en trámite de patente como un modelo de utilidad entre Ecosur y los desarrolladores, con el fin de tener mayor seguridad y que el sistema y sus ventajas lleguen a la gente.




El libro prohibido de la economía (IV)

Por Fernando Trias de Bes


PROCESO DE COMPRA


Versión oficial:

Etapas cronológicas por las que pasa un comprador a la hora de comprar un producto o suscribir un servicio.

Versión prohibida:

Momentos de compra que las marcas incentivan, logrando así disuadir al comprador de verificar lo que recibirá en etapas posteriores.

Cuando una marca actúa así pone su interés en vender por delante la satisfacción del cliente. Y eso no es honrado ni para el cliente ni para la industria ni, de hecho, para la propia marca, que practica eso de «pan para hoy, hambre para mañana».

Existen unos productos donde la desorientación del comprador es elevada, o bien la opinión de un experto tiene mucho peso dentro de los distintos procesos de compra. Es el caso de productos tecnológicamente complejos o donde la experiencia científica es un grado. Las marcas saben que hay una figura fundamental que en marketing se denomina «prescriptor». El prescriptor, en teoría, es una persona no vinculada a marca alguna que recomienda con absoluta independencia la que considera mejor opción a un comprador que carece de criterios de compra, o a quien el tiempo que debería invertir para adquirir tales criterios sería demasiado elevado. Ejemplos típicos de prescriptores son los veterinarios, médicos, mecánicos de vehículos o informáticos.

Veamos un ejemplo: nace nuestro primer bebé. Empieza el destete. Hay que escoger una leche de transición. ¿Qué marca escoger? ¿Cuál es la más sana para nuestro hijo? Es una elección muy relevante y, obviamente, seguiremos las indicaciones del pediatra. Lo mismo con el mecánico de nuestro coche para escoger un aceite o con nuestro informático para escoger un determinado software.

Hace décadas que se conoce la importancia de los prescriptores y el primer marketing, mejor intencionado, buscaba construir una buena reputación de marca entre estos colectivos, de forma que, libremente, les recomendaran. La tergiversación del prescriptor vino más adelante. Es más barato comprar a un prescriptor que convencerle a base de invertir en formación e imagen de marca. La prostitución del prescriptor es culpa de todos, de las marcas y de los propios prescriptores, pues estos exhiben una teórica independencia que es rotundamente falsa. Las farmacéuticas han pagado a médicos para que receten sus medicamentos; las empresas de neumáticos han pagado comisión a los talleres para que recomienden su marca; los informáticos reciben comisión de los fabricantes de software si instalan los suyos… Casi nadie queda indemne. No tengo nada en contra de la comisión. Sí estoy en contra de que una recomendación, aparentemente libre, esté en realidad condicionada a una contraprestación, y que esto se oculte a quien espera una opinión independiente.

Lo normal sería que un pediatra dijese a la madre: «Mira, estas tres leches tienen suficiente calidad para tu bebé, pero yo te recomiendo especialmente esta marca porque me paga los viajes a los congresos y me ayuda a formarme como médico. Si a ti te parece bien, cómprala porque ayudándola me ayudas también a mí».

Yo hace tiempo que ya no creo a un solo prescriptor y obtengo información de otros consumidores o usuarios. No soy el único. Un reciente estudio demostró que el prescriptor con mayor influencia en la toma de decisiones a la hora de elegir un hotel era… ¡los comentarios de desconocidos en Internet que se habían alojado en el hotel! Damos más credibilidad a un desconocido que a la agencia de viajes. ¿Por qué? Pues porque no sabemos hasta qué punto la agencia tiene un incentivo por parte de ese grupo hotelero. Internet convertirá en obsoletos a los prescriptores. Y si no, tiempo al tiempo.


PRESCRIPTOR


Versión oficial:

Profesional que recomienda a una empresa y/o sus productos o servicios por convencimiento y bondad del fabricante o marca.

Versión prohibida:

Comisionista freelance.


Existe  algo  que  debería  evitar    todos estos desmanes. Se llama «competencia». La competencia es buena para los consumidores porque impide que las empresas abusen de una posición dominante, como puede ser el monopolio    o     el     oligopolio.        Los economistas sabemos que la competencia promueve la eficiencia y asegura que las personas podamos maximizar nuestra satisfacción cuando gastamos, compramos o consumimos.

Sin embargo, la competencia es un concepto muy controvertido. ¿Estamos en España en un sistema de libre competencia? La respuesta es dura: sí y no. Hay competencia y las autoridades regulatorias dedican tiempo a que así sea, pero las marcas, lamentablemente, también establecen pactos en secreto que están totalmente prohibidos por la ley. Lo sé a ciencia cierta. Se lo he oído a empresarios en varias ocasiones. A veces, es incluso obvio cuando comprobamos que todas las marcas distan uno o dos céntimos, caso típico de la gasolina.

Las marcas tienen potestad para fijar precios libremente, así que puede que, simplemente, hayan decidido estar un céntimo más barato que el competidor. Es legítimo y libre, pero es una forma de fijación de precios que va contra todo lo que los economistas han desarrollado.

Las marcas deberían fijar precios a partir de la suma de sus costes de producción y distribución, añadiendo el margen que desean ganar. El precio debería ser resultado de un proceso interno. Fabricar y vender este producto me cuesta cinco y quiero ganar uno, por tanto, lo vendo a seis. Esta es la única forma en que las empresas deberían fijar sus precios. Si luego ven que un competidor lo vende a cinco, deberá preguntarse: «¿Cómo logra ser más barato? ¿O es más barato porque su calidad es peor? Si su calidad es peor y aun así me quita ventas, es porque los clientes prefieren pagar cinco por un producto peor antes que pagar seis por el mío. ¿Debo replantearme mi estrategia y bajar calidad? ¿Debo reconsiderar el margen que quiero ganar?».

Ese sería el proceso sano y natural. En cambio, muchas marcas pactan o bien van agrupándose en torno a un precio que a todas les resulta bueno.

Ante estos casos…, ¿qué hacer? Siempre está la opción de denunciar ante el Tribunal de Defensa de la Competencia una eventual práctica de pacto prohibido de precios. Pero esto le costará tiempo, esfuerzo y, en algunos casos, dinero. La segunda opción es buscar lo que los economistas llamamos «productos sustitutivos». Si creemos que las marcas de patatas fritas están elevando los precios de forma acordada, podemos, por ejemplo, sustituir este aperitivo por unos frutos secos. Casi todo producto tiene un sustitutivo. Azúcar y miel; leche de vaca y leche de avena; refrescos y zumos; cine y teatro; una habitación de hotel y un apartamento turístico…

La mejor opción son los sustitutivos porque si algunas marcas pactan de forma prohibida precios, lo hacen solo con sus competidores directos. Nunca con los productos sustitutivos.

En algunos casos encontrar sustitutivo puede resultar difícil o más caro, pero por lo menos estará pagando un precio justo.

Y eso nos lleva a la definición prohibida de competencia:

COMPETENCIA

PERFECTA


Versión oficial:

La competencia perfecta es la situación de un mercado donde las empresas carecen de poder para manipular el precio y se da una maximización del bienestar.

Versión prohibida:

La competencia son puntos de referencia para fijar los precios de los productos, de forma acordada o espontánea.

 Lamentablemente, no  acaban  aquí   las deformaciones de las herramientas puestas al servicio de las marcas. Una de las más indignantes, incluso desde un punto de vista de sostenibilidad medioambiental, es lo que dentro de las empresas se llamaba obsolescencia y que tradicionalmente se intentaba retrasar lo máximo posible.

La obsolescencia de un producto obliga a la reposición del mismo. Por ejemplo, un ordenador obsoleto, sin capacidad de procesamiento o insuficiente memoria. Un ordenador obsoleto hay que sustituirlo. Puede tratarse de aparatos menos sofisticados: una afeitadora eléctrica, una tostadora… Las empresas, durante mucho tiempo, luchaban para retrasar al máximo la fecha de obsolescencia. Se trataba de que los productos durasen el mayor tiempo posible. Eso era sinónimo de calidad.

Esta loable intención se ha pervertido hasta el punto de que dentro de las empresas se ha acuñado un término que la gente de la calle desconoce y que se denomina «obsolescencia programada». Consiste en lanzar un nuevo producto

tecnológicamente más avanzado sabiendo de antemano que tenemos otra versión superior guardada bajo la manga. Se lanza el primer producto con toda la publicidad posible y se publicita como lo último de lo último. La marca tiene en realidad prevista otra versión mejorada, pero la guarda para una fecha posterior que está programada de antemano. Es decir, las marcas lanzan nuevos productos y programan la obsolescencia del mismo. Lo hacen por dos motivos. El primero es para protegerse de la competencia. Si optan por que el producto dure mucho tiempo, se exponen a que parezca anticuado en comparación a los que van lanzando otras marcas. El segundo motivo es comercial: acelerar la renovación del parque. En el mundo de la informática esto ha sido una constante. A base de programas de software mejorados, los hardware se quedan sin capacidad y son rápidamente obsoletos. Recuerdo haber comprado una impresora que me dijeron que me duraría muchísimo por su velocidad y capacidad. A los tres años, un informático vino a casa a instalar la red y me dijo que a dónde iba con ese trasto. Tres años. Bueno, qué le voy a explicar. Seguro que ha pasado por lo mismo.

La obsolescencia programada ha redefinido completamente el concepto de calidad. Ya no interesa fabricar productos duraderos, sino perecederos. Hoy día la prioridad es fabricar barato y revender rápido.

Una de las tácticas que las empresas han utilizado es la inefable mentira de los servicios técnicos oficiales. Si se le estropea un aparato que todavía puede ser reparado, la solución que las marcas le ofrecen pasa por localizar al servicio técnico más próximo. Lo de más próximo es un chiste porque, si bien hace un tiempo había varios puntos de atención y relativamente céntricos, ahora, incluso en ciudades grandes como Madrid o Barcelona, solo hay un servicio técnico que suele estar en el extrarradio de la ciudad y que, además, está compartido por varias marcas. Si se toma la molestia de desplazarse hasta ahí con una afeitadora eléctrica para reparar, por ejemplo, tras perder una mañana o una tarde entera, le van a pedir un depósito que oscila alrededor de los 30 o 50 euros solo para hacerle un presupuesto de la reparación. Quieren asegurarse de que, cuando hayan encontrado el problema y le llamen para explicarle cuál es la avería, las horas de mano de obra para realizar el diagnóstico estén cobradas. Les sucedía que mucha gente, al conocer el coste de la reparación, optaba por decir que nanay y se compraban otro aparato nuevo, dado que costaba menos o lo mismo. Claro, el servicio técnico se quedaba sin cobrar esas horas necesarias para determinar el problema, por lo que decidieron solicitar un depósito por adelantado. Todo esto es muy discutible porque a pesar de que luego resulte que la avería no está cubierta por la garantía, el servicio técnico de una marca tiene una cierta obligación de comprobarlo. El producto está en garantía. Si el problema es otro, ¿tiene el cliente obligación de pagar esa comprobación? Discutible.

En cualquier caso, el formidable desarrollo de los cada vez menores costes industriales han convertido a la mano de obra que repara en mucho más cara que la maquinaria que fabrica, por lo que en la mayoría de productos sujetos a electrónica o mecánica, es más barato reponer que reparar. Las marcas no podían decir esto abiertamente, así que se han dedicado a crear procesos disuasorios. El proceso de servicio técnico es claramente disuasorio. Todo está concebido para que el proceso de compra sea cómodo y rápido, pero no así el de reparación. Es un proceso que no interesa para nada a las marcas.

Continuará

Keynes, la civilización y el largo plazo


Michael Roberts 

La teoría económica keynesiana es dominante en la izquierda del movimiento obrero. Keynes es el héroe económico de los que quieren cambiar el mundo; para poner fin a la pobreza, la desigualdad y las continuas pérdidas de ingresos y puestos de trabajo en las crisis recurrentes. Y sin embargo, cualquiera que haya leído las notas de mi blog sabe que el análisis económico keynesiano es erróneo, empíricamente dudoso y sus prescripciones políticas para corregir los errores del capitalismo han demostrado ser un fracaso.
En los EEUU, los grandes gurús de la oposición a las teorías neoliberales de la escuela de economía de Chicago y a las políticas de los republicanos son keynesianos Paul Krugman , Larry Summers y Joseph Stiglitz o, ligeramente más radicales, Dean Baker o James Galbraith. En el Reino Unido, los líderes de la izquierda del Partido Laborista en torno a Jeremy Corbyn y John McDonnell, socialistas confesos, se inspiran en economistas keynesianos como Martin Wolf, Ann Pettifor o Simon Wren Lewis para sus propuestas políticas y análisis. Los invitan a sus consejos de asesores y seminarios. En Europa, los Thomas Piketty mandan.
Los estudiantes graduados y profesores que participan en Rethinking Economics , un movimiento internacional para cambiar la enseñanza y las ideas económicas en ruptura con la teoría neoclásica, son dirigidas por autores keynesianos como James Kwak o post-keynesianos como Steve Keen, o Victoria Chick o Frances Coppola. Kwak, por ejemplo, ha publicado un nuevo libro titulado Economism, que sostiene que la línea de falla económica en el capitalismo es el aumento de la desigualdad y que el fracaso de la economía convencional consiste en no reconocerlo. Una vez más la idea de que la desigualdad es el enemigo, no el capitalismo como tal, exuda de los keynesianos y post-keynesianos como Stiglitz, Kwak, Piketty o Stockhammer , y es dominante en los medios de comunicación y el movimiento obrero. Con ello no pretendo negar la horrible importancia del aumento de la desigualdad, sino demostrar que no se tiene en cuenta una visión marxista sobre este tema.
De hecho, cuando los medios de comunicación quieren ser audaces y radicales, se llenan de publicidad sobre los nuevos libros de autores keynesianos o post-keynesianas, pero no de los marxistas. Por ejemplo, Ann Pettifor, de Prime Economics, ha escrito un nuevo libro, The Production of Money, en el que nos dice que “el dinero no es más que una promesa de pago” y que “creamos dinero todo el tiempo haciendo esas promesas” , el dinero es infinito y no limitado en su producción, por lo que la sociedad puede imprimir tanto como quiera para invertir en sus opciones sociales sin ningún tipo de consecuencias económicas perjudiciales. Y a través del efecto multiplicador keynesiano, los ingresos y los puestos de trabajo pueden crecer. Y “no importa donde el gobierno invierta su dinero, si al hacerlo se crea empleo” . El único problema es mantener el coste del dinero, las tasas de interés, tan bajas como sea posible, para asegurar la expansión del dinero (¿o se trata de crédito?) para impulsar la economía capitalista. Por lo tanto, no hay necesidad de ningún cambio en el modo de producción con fines de lucro, simplemente basta con controlar la máquina de dinero para asegurar un flujo infinito de dinero y todo funcionará bien.
Irónicamente, al mismo tiempo, el destacado poskeynesiano Steve Keen se prepara para ofrecer un nuevo libro abogando por el control de la deuda o del crédito como forma de evitar las crisis.   Haga su elección: ¿más dinero-crédito o menos? De cualquier manera, los keynesianos difunden una narrativa económica con un análisis que considera que sólo el sector de las finanzas es la fuerza causal de los problemas del capitalismo.
Entonces, ¿por qué siguen siendo dominantes las ideas keynesianas? Geoff Mann nos proporciona una explicación atractiva. Mann es el director del Centro de Economía Política Global en la Universidad Simon Fraser, de Canadá. En un nuevo libro, titulado In the Long Run we are all Dead, Mann reconoce que no es que la economía keynesiana se considere correcta. Ha habido “poderosas críticas desde la izquierda de la economía keynesiana de la que extraer conclusiones; los ejemplos incluyen las obras de Paul Mattick, Geoff Pilling y Michael Roberts ( ¡gracias! - MR )”(p218), pero las ideas keynesianas son dominantes en el movimiento obrero y entre los que se oponen a lo que Mann llama el 'capitalismo liberal' (lo que yo llamaría el capitalismo) por razones políticas.
Keynes reina porque ofrece una tercera vía entre la revolución socialista y la barbarie, es decir, el fin de la civilización tal y como (en realidad la burguesía como a la pertenecía Keynes) la conocemos. En los años 1920 y 1930, Keynes temió que el 'mundo civilizado' se enfrentase a la revolución marxista o la dictadura fascista. Pero el socialismo como una alternativa al capitalismo de la Gran Depresión, podría acabar con la 'civilización', abriendo la puerta a la 'barbarie' - el final de un mundo mejor, el colapso de la tecnología y el estado de derecho, más guerras, etc. Así que intentó ofrecer la esperanza de que, a través de alguna modesta reforma del 'capitalismo liberal', sería posible hacer que volviese a funcionar el capitalismo sin la necesidad de una revolución socialista. No habría ninguna necesidad de ir a donde los ángeles de la 'civilización' se negaban a ir. Esa fue la narrativa keynesiana.
Este llamamiento atrajo (y todavía atrae) a los líderes del movimiento sindical y a los 'liberales' que desean cambios. La revolución es algo arriesgado y puede arrastrarnos a todos al abismo. Mann: “La izquierda quiere democracia sin populismo, quiere políticas de cambio sin los riesgos del cambio; quiere revolución sin revolucionarios” . (p21).
Este miedo a la revolución, Mann reconoce, apareció por primera vez después de la Revolución francesa. Ese gran experimento de democracia burguesa desembocó en Robespierre y el terror; la democracia se convirtió en dictadura y barbarie – ese es más o menos el mito burgués. La economía keynesiana ofrecía una manera de salir de la depresión de 1930 o de la actual Larga Depresión sin socialismo. Es la tercera vía entre el statu quo de los mercados rapaces, la austeridad, la desigualdad, la pobreza y las crisis y la alternativa de una revolución social que conlleve a Stalin, Mao, Castro, Pol Pot y Kim Jong-un. Es una 'tercera vía' tan atractiva que Mann confiesa que incluso le seduce como una alternativa al riesgo de que la revolución se tuerza (ver el último capítulo, donde Marx es presentado como el Dr. Jekyll de la Esperanza y Keynes como el Mr. Hyde del miedo).
Como Mann escribe, Keynes creía que, si expertos civilizados (como él mismo) abordaban los problemas a corto plazo de la crisis económica y las recesiones, se podría evitar el desastre a largo plazo del colapso de la civilización. La famosa cita que recoge el título del libro de Mann, 'a largo plazo todos estaremos muertos', se refiere a la necesidad de actuar frente a la Gran Depresión mediante la intervención del gobierno y no esperar a que el mercado se auto-corrija con el tiempo, como pensaban los economistas y políticos neoclásicos ( 'clásicos' según Keynes). Porque “ese largo plazo es una mala guía para los temas de actualidad. A largo plazo todos estaremos muertos. Los economistas se fijaron una tarea demasiado fácil, demasiado inútil, si en épocas turbulentas sólo nos puede decir que cuando la tormenta haya pasado, el océano volverá a estar como un plato”(Keynes). Es necesario actuar sobre los problemas a corto plazo o se convertirán en un desastre a largo plazo. Este es el significado adicional de la larga cita anterior: hay que lidiar con la depresión y las crisis económicas ahora o la misma civilización se verá amenazada por la revolución a largo plazo.
A Keynes le gustaba considerar que el papel de los economistas era similar al de los dentistas a la hora de resolver un problema técnico de la economía como si se tratase de un dolor de muelas ( “Si los economistas pudieran llegar a pensar que son personas humildes y competentes como los dentistas, sería espléndido” ). Y los keynesianos modernos han comparado su tarea a la de los fontaneros: reparar las fugas en la tubería de la acumulación y el crecimiento. Pero el método real de la economía política no es el de un fontanero o un dentista cuando soluciona problemas a corto plazo. Es el de un científico social revolucionario (Marx), transformándo a largo plazo. Lo que el análisis marxista del modo de producción capitalista revela es que no hay una 'tercera vía' como Keynes y sus seguidores proponen. El capitalismo no puede ofrecer el fin de la desigualdad, la pobreza, la guerra a cambio de un mundo de abundancia y bien común a nivel mundial, y evitar así la catástrofe medio ambiental, a largo plazo.
Al igual que todos los intelectuales burgueses, Keynes era un idealista. Sabía que las ideas sólo se llevan a cabo si se ajustan a los deseos de la élite gobernante. Como él mismo dijo, “El individualismo y el laissez-faire no podían, a pesar de sus profundas raíces en las filosofías políticas y morales de finales del siglo XVIII y principios del XIX, garantizar su influjo duradero en la dirección de los asuntos públicos, si no hubiera sido porque encajaban con las necesidades y deseos del mundo de los negocios de entonces ... Todos esos elementos han contribuido al actual ambiente intelectual dominante, a la estructura mental, a la ortodoxia de la época”.  Sin embargo, seguía creyendo que un hombre inteligente como él, con ideas contundentes, podría cambiar la sociedad aun en contra de los intereses de aquellos que la controlan.
Lo equivocado de esa idea fue evidente incluso para él cuando intentó conseguir que la administración Roosevelt adoptase sus ideas sobre como terminar con la Gran Depresión y que la clase política aplicase sus ideas para un nuevo orden mundial después de la guerra mundial. Keynes quería crear instituciones 'civilizadas' para garantizar la paz y la prosperidad a nivel mundial a través de la gestión internacional de las economías, las monedas y el dinero. Pero estas ideas de un orden mundial para controlar los excesos de un capitalismo desenfrenado se convirtieron en instituciones como el FMI, el Banco Mundial y el Consejo de Seguridad de las Naciones Unidas, que acabaron promoviendo las políticas de un imperialismo encabezado por los Estados Unidos. En lugar de un mundo de líderes 'civilizados' que resolvían los problemas del mundo, lo que tenemos es una terrible águila que clava sus garras en el mundo, imponiendo su voluntad. Son los intereses materiales los que deciden las políticas, no los economistas inteligentes.
De hecho, Keynes, el gran idealista de la civilización se convirtió en un pragmático en las reuniones de Bretton Woods de la posguerra, en representación no de las masas del mundo, o incluso de un orden mundial democrático, sino de los estrechos intereses nacionales del imperialismo británico frente al dominio estadounidense. Keynes informó al parlamento británico que el acuerdo de Bretton Woods no era  “una afirmación de poder estadounidense, sino un compromiso razonable entre dos grandes naciones con los mismos objetivos: restaurar una economía mundial liberal”. Otras naciones fueron ignoradas, por supuesto.
Para evitar la situación en la que a largo plazo todos estemos muertos, Keynes creía que había que resolver los problemas a corto plazo. Pero resolverlos a corto plazo no puede evitar el largo plazo. Si se logra el pleno empleo, todo irá bien, pensó. Sin embargo, en 2017, tenemos casi 'pleno empleo' en EEUU, el Reino Unido, Alemania y Japón, y no todo está bien. Los salarios reales se han estancado, la productividad no está aumentando y las desigualdades se agravan. Hay una Larga Depresión y no parece que vayamos a salir de un 'estancamiento secular'. Por supuesto, los keynesianos dice que la causa es que no se han aplicado las políticas keynesianas. Pero no se han aplicado (al menos no el aumento del gasto fiscal) porque las ideas no se imponen a los intereses materiales dominantes, al contrario de lo que creía Keynes. Keynes lo veía boca abajo; de la misma manera que Hegel. Hegel defendía que era el conflicto de ideas el que determinaba el conflicto histórico, cuando es lo contrario. La historia es la historia de la lucha de clases.
Y de todos modos, las recetas económicas de Keynes se basan en una falacia. La larga depresión continua no porque haya demasiado capital que deprime los beneficios ('eficiencia marginal') del capital en relación con la tasa de interés sobre el dinero. No hay demasiada inversión (las tasas de inversión de las empresas son bajas) y las tasas de interés están cerca de cero o incluso son negativas. La larga depresión es el resultado de una muy baja rentabilidad y por lo tanto de insuficiente inversión, lo que ralentiza el crecimiento de la productividad. Los salarios reales bajos y la baja productividad son el coste del 'pleno empleo', en contra de todas las ideas de la teoría económica keynesiana. No ha sido el exceso de inversión lo que ha causado la baja rentabilidad, sino la baja rentabilidad la que ha causado la escasa inversión.
Lo que Mann sostiene es que la teoría económica keynesiana es dominante en la izquierda a pesar de sus falacias y fracasos porque expresa el temor de muchos de los líderes del movimiento obrero a las masas y la revolución. En su nuevo libro, James Kwak cita a Keynes: “En su mayor parte, creo que el capitalismo, gestionado con prudencia, puede probablemente ser más eficiente para alcanzar fines económicos que cualquier sistema alternativo conocido, pero que en sí mismo es en muchos maneras muy objetable. Nuestro problema es desarrollar una organización social que fuera lo más eficiente posible sin ofender nuestras nociones de una vida satisfactoria“.   Comentarios de Kwak : “Ese sigue siendo nuestro reto hoy. Si no podemos resolverlo, las elecciones presidenciales de 2016 (Trump) puede pueden convertirse en un presagio de cosas peores por venir”.  En otras palabras, si no podemos controlar el capitalismo, las cosas pueden ir a peor.
Detrás del miedo a la revolución está el prejuicio burgués de que dar poder a las “masas” implica el fin de la cultura, el progreso científico y el comportamiento civilizado. Sin embargo, fue la lucha de los trabajadores en los últimos 200 años (y antes) la que consiguió todos estos logros de la civilización de los que la burguesía está tan orgullosa. A pesar de Robespierre y de la revolución que 'devora a sus propios hijos' (un término introducido por el pro-aristócrata Mallet du Pan y adoptado por el burgués conservador británico, Edmund Burke), la revolución francesa permitió la expansión de la ciencia y la tecnología en Europa. Acabó con el feudalismo, la superstición religiosa y la inquisición e introdujo el código napoleónico. Si no hubiera tenido lugar, Francia habría sufrido más generaciones de despilfarro feudal y declive.
Como celebramos el centenario de la Revolución rusa, podemos considerar la situación hipotética contraria. Si la Revolución rusa no hubiera tenido lugar, el capitalismo ruso se hubiera industrializado quizás un poco, pero se habría convertido en un estado cliente de los capitales británicos, franceses y alemanes y muchos millones más habrían muerto en una guerra mundial inútil y desastrosa en la que Rusia hubiera seguido envuelta. La educación de las masas y el desarrollo de la ciencia y la tecnología se habrían frenado; como ocurrió en China, que se mantuvo en las garras del imperialismo durante otra generación más. Si la revolución china no hubiera tenido lugar en 1949, China hubiera seguido siendo un 'estado fallido' comprador, controlada por Japón y las potencias imperialistas y devastada por los señores de la guerra chinos, con una extrema pobreza y atraso.
Keynes era el burgués intelectual por excelencia. Su defensa de la 'civilización' significaba para él la defensa de la sociedad burguesa. Como él mismo dijo: “la guerra de clases me encontrará en el lado de la burguesía educada.”  No había manera de que apoyase el socialismo, para no hablar de un cambio revolucionario porque prefiriendo el barro a los peces, exalta al proletariado grosero por encima de burgués y los intelectuales que, cualesquiera que sean sus defectos, son la sal de vida y llevan en si las semillas de todo progreso humano”
De hecho, en sus últimos años, alabó desde el punto de vista económico ese capitalismo 'liberal' laissez faire que sus seguidores condenan ahora. En 1944, escribió a Friedrich Hayek, el principal 'neoliberal' de su tiempo y mentor ideológico del thatcherismo, alabando su libro, El Camino de servidumbre, que sostiene que la planificación económica conduce inevitablemente al totalitarismo: “moral y filosóficamente me encuentro de acuerdo con prácticamente la totalidad de él; y no sólo de acuerdo con él, sino en un acuerdo profundamente conmovido“.
Y Keynes escribió en su último artículo publicado , “me encuentro obligado, y no por primera vez, a recordar a los economistas contemporáneos que la enseñanza clásica encarna algunas verdades permanentes de gran importancia. . . . Hay en estos asuntos profundas influencias actuantes,  fuerzas naturales si se quiere, o incluso la mano invisible, que operan hacia el equilibrio. Si no fuera así, no hubiéramos podido conseguir tantas cosas buenas como hemos hecho durante muchas décadas pasadas”.
Por lo tanto, vuelven la economía clásica y un mar como un plato. Una vez que la tormenta (o la recesión y la depresión) ha pasado y en el océano reina la calma, la sociedad burguesa puede respirar un suspiro de alivio. Keynes el radical se convirtió en Keynes el conservador después del fin de la Gran Depresión. ¿Los radicales keynesianas se convertirán en economistas ‘ortodoxos’ conservadores cuando termine la Larga Depresión?
Todos estaremos muertos si no acabamos con el modo de producción capitalista. Y ello requerirá una transformación revolucionaria. Las chapuzas reformistas de los supuestos fallos del capitalismo 'liberal' no 'salvarán' a la civilización, a menos a largo plazo.
es un reconocido economista marxista británico, que ha trabajador 30 años en la City londinense como analista económico y publica el blog The Next Recession.
Fuente:
https://thenextrecession.wordpress.com/2017/03/27/keynes-civilisation-and-the-long-run/
Traducción:
G. Buster

CONTRIBUCIÓN DE LA FUERZA DE TRABAJO CALIFICADA AL CRECIMIENTO ECONÓMICO EN CUBA. PRINCIPALES DETERMINANTES (II)

TESIS EN OPCIÓN AL GRADO CIENTÍFICO DE DOCTOR EN CIENCIAS ECONÓMICAS

Autora: MSc. Yordanka Cribeiro Díaz


Tutor: Dra. Vilma Hidalgo de los Santos

1.3.2.  Desequilibrios entre calificación y requerimientos del puesto de trabajo

De acuerdo a la teoría convencional, el mercado, como mecanismo eficiente de asignación de recursos productivos, debería lograr que los trabajadores más calificados obtuvieran puestos  de  trabajo  en  correspondencia  con  su nivel  de  calificación  y  con  mayores remuneraciones. No obstante, la evidencia empírica demuestra la ocurrencia de desajustes
  

38  Como medidas del capital humano altamente tecnogico utiliza: la matrícula en carreras de ingeniería, matemáticas y ciencias de la computación con respecto a la matrícula total en el nivel terciario y la matrícula en carreras de ingeniería, matemáticas, ciencias de la computación y ciencias naturales con respecto a la matrícula total en el nivel terciario.


entre el nivel educativo de los trabajadores y los requerimientos cognitivos del puesto de trabajo que ocupan, sobre todo en las fases iniciales de la carrera laboral.

La  literatura  sobre  estos  temas  parte  del  criterio  de  que  los trabajadores  no  están igualmente capacitados para todos los empleos. Según Topel (1984) la heterogeneidad del talento y la tecnología genera diferencias de productividad específicas a cada puesto de trabajo. Para Castillo y Terren (1994), el efectivo desajuste que se aprecia entre las cualificaciones formales de los trabajadores y las cualificaciones reales de los puestos de trabajo, entre la formalidad de las certificaciones escolares y las exigencias de la realidad económica, es resultado del desfase en los diseños de ambos, en parte atribuible a que la planificación educativa no puede seguir la velocidad de la evolución tecnológica.

El proceso mediante el cual los trabajadores heterogéneos (distintos niveles de calificación y especialización) son ubicados en heterogéneos puestos de trabajo ha sido abordado por investigaciones que pueden agruparse en dos grandes vertientes: la teoría del emparejamiento (job matching) y la teoría de la movilidad profesional (career mobility).

El primer grupo de trabajos ha estado asociado al análisis de la movilidad laboral y el crecimiento del salario (Jovanovic, 1979a, 1979b y Topel, 1984), la elección ocupacional (McCall, 1990), el desempleo (Jovanovic, 1984), los mercados laborales internos y la productividad del trabajo. El denominador común de todos estos estudios se encuentra en el supuesto de que los desajustes entre la calificación del trabajador y los requerimientos del puesto de trabajo son derivados de la existencia de información imperfecta en el mercado de trabajo. Asimismo, suponen que dichos desequilibrios pueden ser solucionados mediante un proceso de movilidad laboral voluntaria o involuntaria y ascendente o descendente dependiendo de la situación inicial y que beneficia a ambas partes del contrato laboral.

Al respecto, Jovanovic (1979a) demuestra que la contribución de un trabajador a la producción de la empresa en la que trabaja depende positivamente de la calidad del emparejamiento entre ambos (trabajador puesto de trabajo). Adicionalmente, obtiene que la probabilidad de abandonar el empleo es una función decreciente de la antigüedad en el mismo. Relacionado con ello, McCall (1990) señala que si el emparejamiento profesional es significativo para aquellos que han cambiado su empleo pero mantienen su ocupación, la permanencia en el empleo anterior reduce la probabilidad de separación del empleo actual, lo cual tiene implicaciones positivas sobre la productividad debido a la experiencia acumulada en la actividad.

Por otra parte, la teoría de la movilidad profesional considera que los desequilibrios entre las cualificaciones de los trabajadores y los requerimientos del empleo desempeñado responden a una estrategia para maximizar el flujo de ingresos de los individuos a lo largo de su trayectoria laboral (Sicherman y Galor, 1990; Sicherman, 1991, Topel y Ward, 1992 y Robst, 1995). Según este enfoque, los trabajadores pueden estar interesados en ocupar temporalmente empleos que requieran un nivel educativo menor al que ostentan como mecanismo de mitigación de las deficiencias de la educación formal, lo que amplía las probabilidades de promoción dentro de la empresa (movilidad interna) o de lograr un mejor empleo en otra empresa (movilidad externa).

En resumen, estos estudios sobre la asignación de la fuerza de trabajo calificada se han focalizado fundamentalmente en los determinantes de la movilidad laboral y de las trayectorias  profesionales  observadas.  En  ese sentido,  obvian  otros  problemas  de asignación igualmente importantes como  el  desempleo  (voluntario o  involuntario) de fuerza de trabajo calificada y la migración (interna y externa), los cuales son particularmente importantes en economías subdesarrolladas. Adicionalmente, considerar que las divergencias entre los niveles de calificación y los requerimientos laborales son transitorias y fácilmente corregibles mediante la movilidad laboral, minimiza el impacto que los problemas de asignación pueden tener sobre la productividad y el crecimiento económico, así como la existencia, permanencia y perpetuidad de fenómenos como el subempleo por sobreeducación.

Según Büchel (2002), la sobreeducación, entendida como la parte de la fuerza laboral que posee mayores niveles de calificación que el requerido por sus puestos de trabajo, es un fenómeno persistente en las economías industrializadas y con implicaciones negativas.39
Su efecto principal radica en que la productividad económica global cae por debajo del mite fijado por el nivel educativo de la población empleada.  Basados en este argumento,


39  Al respecto, McGoldrick y Robst (1996) comparan los requerimientos estimados de escolaridad de cada una de las ocupaciones reportadas en el Diccionario de tulos Profesionales con los niveles de escolaridad real reportados por los encuestados para el estudio de la dinámica del ingreso de 1985. Sus resultados arrojan que una proporción significativa de la fuerza de trabajo en Estados Unidos está sobreeducada.

estudios empíricos sobre el tema desde la empresa, muestran que los empleados sobreeducados tienen un mayor sesgo hacia comportamientos laborales no relacionados con la productividad – niveles más altos de descontento, problemas de salud y de ausentismo, así como de movilidad laboral que los correctamente asignados (Tsang y Levin, 1985 y Hartog, 2000). Sin embargo, Büchel (2002) obtiene que para la economía alemana,  los  empleados  sobreeducados son  más  productivos que  sus  colegas adecuadamente localizados.

Por su parte, Baumol (1990) plantea que, si bien la disponibilidad total de empresarios varía entre países, su contribución productiva depende de su asignación entre actividades productivas como la innovación u otras improductivas como la búsqueda de rentas o el crimen organizado. Adicionalmente argumenta que uno de los determinantes de la asignación del talento empresarial depende de las reglas del juego que inciden en las remuneraciones relativas. De esta forma, si una actividad A es mejor remunerada que la B, es muy probable que se produzca una localización del talento a favor de A, incluso cuando su contribución al producto social sea menor. Esto puede llegar a ser nocivo para el crecimiento de la productividad de una economía al afectar el grado de innovación y de diseminación de sus descubrimientos tecnológicos.

En esa línea, Pritchet (2001) y Pissarides y Véganzonès-Varoudakis (2005) corroboran que la existencia de instituciones, marcos regulatorios y políticas biles fomentan la localización de fuerza de trabajo calificada en actividades improductivas, constituyendo uno de los elementos que explican la ruptura de la relación estadística entre la educación y el crecimiento en países subdesarrollados. Según Barron et al. (1989), la deficiente asignación resultante incrementa además los costos del entrenamiento en el puesto de trabajo.

En el caso de Holanda, Hartog y Oosterbeek (1988) demuestran que los cambios en la composición educativa de la fuerza de trabajo han conducido a importantes cambios en la estructura por nivel de educación de los puestos de trabajo. A pesar de que los autores no analizan el impacto de la asignación de la fuerza de trabajo calificada en la productividad, obtienen que se ha incrementado la subutilización de la educación mediante un análisis estándar de emparejamiento entre los requerimientos laborales y los niveles de formación.

De otro lado, Pissarides y Véganzonès-Varoudakis (2005) asocian los problemas de contribución del capital humano en la región MENA con un problema de asignación de la fuerza de trabajo calificada hacia sectores rentistas o menos productivos y dinámicos. Su hipótesis se basa en que el empleo calificado en la industria manufacturera en la región representa una menor proporción que en otros países industrializados, lo que combina con un sector público que absorbe a más del 50 % de la fuerza de trabajo con nivel superior que se caracteriza por el sobredimensionamiento de las plantillas.40


Otro  problema  de  asignación  importante  ha  sido  la  combinación  de  altas  tasas  de desempleo calificado con la escasez de habilidades a nivel industrial señaladas por los empresarios, lo que exige un mayor engranaje de los sistemas educativos con el aparato productivo y no solamente con las exigencias del sector público. En esa línea, Rosenzweig (1999) plantea que la contribución del capital humano a la productividad dependerá de su asignación de acuerdo al grado de complejidad de la actividad que se realice. Asimismo, argumenta que no existe evidencia de que la dotación de capital humano en la agricultura implique diferencias de productividad entre los obreros, lo cual puede extrapolarse a otras actividades cuyo componente fundamental sea el trabajo físico.

Es necesario resaltar que, si bien no existe total consenso sobre las implicaciones de este fenómeno sobre las remuneraciones o incluso la productividad, ello representa un problema de ineficiencia en la asignación de recursos ¾ pues el nivel de producto podrían haberse obtenido con un menor gasto en formación ¾, amplía la brecha entre calificados y no calificados e incrementa la probabilidad de desempleo de los menos calificados. En ese sentido, paralelamente a las hipótesis del umbral de capital humano, podría esgrimirse la idea de un mite superior de contribución al crecimiento del capital humano, creciente en función del stock tecnológico de la economía y del grado de complejidad que caracterice a su estructura productiva.

Finalmente, la migración puede ser considerada como otro problema de asignación de la fuerza de trabajo calificada. En ese sentido, la migración puede ser abordada desde dos aristas. Por una parte, Jiang y Zhao (2003) analizan las implicaciones de la migración de la


40 A inicios de los 90´s, la proporción de obreros subutilizados en el sector público representaba el 17% en Argelia y el 21% en Egipto.  Para el quinquenio 2000 - 2005 esas cifras se habían incrementado a 35% en Egipto y 40% en Jordania.

  
fuerza de trabajo calificada desde las áreas rurales hacia las ciudades, argumentando que cualquier política que mantenga fuera de las ciudades a los individuos con bajo capital humano incrementa el producto total.
Desde la perspectiva de los países, la migración externa constituye uno de los problemas fundamentales. Según Pellegrino (2008), si la emigración de recursos calificados se convierte en causa de que el Estado no cuente con los recursos calificados mínimos, será un factor negativo para elevar la productividad marginal del capital humano remanente y se convertirá en una pérdida neta para los países de origen en beneficio de los receptores. La contraparte esgrimida a esta visión, es el efecto positivo que se deriva en términos de financiamiento externo asociado a las remesas. Sin embargo, Lema (2007) argumenta que si se compara el costo de formación universitaria en América Latina con el de Estados Unidos, se constata parcialmente la pérdida no solo en conocimientos sino también económica que representa la emigración calificada para los países emisores.41


En síntesis, las dificultades asociadas a una inadecuada ubicación de la fuerza de trabajo pueden implicar distorsiones en los niveles de productividad de la propia empresa. Por otra parte, para la economía en su conjunto ello genera problemas de asignación global de recursos que han sido sobreinvertidos en educación pudiéndose destinar a otros fines. De ahí la necesidad de una correcta asignación de la fuerza de trabajo en aquellos puestos laborales que permitan un mayor rendimiento. Sin embargo, para lograr esto último, es imprescindible contar también con la infraestructura necesaria, así como el sistema de incentivos que garanticen un correcto desempeño del trabajador en su puesto laboral. A este tercer elemento estará dedicado el próximo epígrafe.

1.3.3.   El rendimiento de la fuerza de  trabajo


En el debate acerca de la contribución del capital humano al crecimiento se considera expedito  el  vínculo  entre  la  mayor  dotación,  la  productividad  y  el  crecimiento.  Sin embargo, una mayor disponibilidad no garantiza el uso efectivo de la dotación. Laroche et al. (1999) señalaron que el stock de conocimientos y habilidades incorporadas en el capital

41 La formación universitaria en América Latina cuesta en promedio US$ 30.000 mientras que en EEUU es de US$ 250.000. La diferencia en costo de formación de los 212 400 diplomados latinoamericanos residentes en EEUU representa US$ 46.728 millones de economía para el país receptor, un monto equivalente al de las remesas enviadas en 2005 por los emigrantes latinoamericanos desde EEUU hacia sus países de origen (Lema, 2007).


humano no son necesariamente utilizadas a plenitud.42 La brecha puede originarse como resultado de desajustes entre las habilidades adquiridas y las demandadas por el mercado de trabajo, por fluctuaciones económicas, distorsiones en los mercados laborales o por las decisiones conscientes o inconscientes de los individuos.

En este sentido, dos aristas son imprescindibles para el análisis. Por un   lado, la disponibilidad de condiciones objetivas, relacionadas con la infraestructura tecnológica y la disponibilidad de recursos materiales; y por otro, el cada vez más relevante papel del sistema de incentivos, en pos de garantizar el aprovechamiento óptimo de la fuerza de trabajo calificada.

Complementariedad entre la infraestructura, tecnología y capital con la fuerza de trabajo calificada


Desde el punto de vista teórico y práctico, el crecimiento de la producción y la transformación productiva hacia ramas de mayor dinamismo depende de la combinación efectiva de los recursos laborales con mayor calificación con la disponibilidad de capital, la infraestructura existente y la tecnología, que de conjunto determinan las ventajas comparativas hacia la innovación. En ese sentido, resulta relevante reforzar la idea de que la fuerza de trabajo calificada debe ser complementaria al resto de los factores de producción, y por lo tanto, será más productiva en los sectores donde la economía tenga cierta capacidad instalada.

La fortaleza de este argumento introduce que las restricciones de capital, infraestructura y diferenciales tecnológicos entre sectores y puestos de trabajo, reducen la eficiencia de la calificación como fuente constante de incrementos de productividad. Si bien para la economía convencional, la inversión en ambos tipos de capital y en tecnología responde a señales del mercado, generándose una especie de causalidad bidireccional en cada caso, en economías   subdesarrolladas   los   desajustes   entre   los   niveles   de   formación    la infraestructura tecnológica pueden ser importantes.
En ese sentido, Harrod y Domar señalaron que para que mayores niveles de calificación se tradujeran  en  crecimiento  económico,  era  necesario  que  estuviesen  respaldados  por

42   En  e2000,  Ruggeri  y  Yu  (2000)  señalaron  que  el  capital  humano  era  un  concepto  dinámico  y multifacético, siendo necesario ampliar su concepción para incorporar su uso efectivo y el rendimiento obtenido


adecuados niveles de inversión de capital así como un desarrollo tecnológico acorde con los requerimientos de la economía (Escardíbul y Oroval, 1998, Ozturk, 2001). Según Mendoza (2004), existe una complementariedad entre el capital humano y el capital físico cuya función es evitar la caída de la productividad marginal del capital físico. Este argumento es reafirmado por Mankiw (2004) quien, basado en la existencia de un efecto de dilución del stock de capital, plantea la necesidad del incremento de la dotación de capital por trabajador como determinante de la productividad.

Para  Colombia,  Clavijo  (2003)  determinó  el  impacto  sobre  el  crecimiento  y  la productividad de variables como el peso tecnológico de la intensidad del comercio internacional, la tasa de inversión bruta y los efectos de la relación capital/trabajo. Sus resultados confirmaron que la inversión de capitales y la relación capital/trabajo tuvieron un impacto significativo en el crecimiento en el período 1950-2002, mientras que en el período 1967-2002, la relación capital/trabajo y el ingreso per cápita explicaron entre el 93% y el 97% de la variación de la productividad.


Asimismo, Nelson y Phelps (1996) demostraron que la contribución de la educación al proceso de difusión tecnológica era mayor mientras más tecnológicamente avanzada era la economía. En esa nea, otros autores señalan que la creación de nuevos productos y procesos que reducen los costos de las empresas y aumentan la productividad de los factores de producción, en particular del trabajo, requieren a su vez de una combinación efectiva entre los niveles de calificación de la fuerza de trabajo, la tecnología existente y el grado de innovación de la economía (Romer, 1989; Brezys et. al., 1993; Zagler y Dürnecker, 2003 y OECD, 2004). Al respecto, Acemoglu (1996) obtiene que en la elección de los niveles de capital humano e inversión en I+D son posibles múltiples equilibrios, en la medida que ambas decisiones son interdependientes. Esto permite la formalización de ideas previas sobre la posible existencia de una trampa de capital humano (low-skill, low- quality trap). El modelo sugiere que a nivel agregado, una mayor inversión en educación o entrenamiento debe incrementar el gasto en I+D y viceversa, como forma de incrementar la productividad y el crecimiento (Temple, 2001).

Al respecto, Doms et al. (1997) sugieren que empresas con mayores salarios son más propensas a adoptar nuevas tecnologías, lo que puede atribuirse a la complementariedad entre tecnología y calificación. Cuando los salarios están positivamente relacionados con el nivel de calificación de los trabajadores, ello posibilita la adopción de tecnologías a menores costos.

Por su parte, Adams (2006) considera que las restricciones en la capacidad de absorción de la economía y la disponibilidad de capital humano en correspondencia con la tecnología, limitan el flujo de conocimientos y el efecto derrame de los adelantos tecnológicos, lo que reduce la productividad global y el crecimiento. Asimismo, Bresnahan et al. (2002) señalan la necesaria complementariedad entre la utilización de tecnologías de la información y la demanda de fuerza de trabajo calificada. Según Goldin y Katz (1998), no todas las revoluciones tecnológicas conducen a un incremento en la demanda de fuerza de trabajo más calificada, nuevamente lo relevante es la complementariedad entre la tecnología utilizada y el nivel de calificación y especialización de los trabajadores empleados.
Esta visión de complementariedad es compatible con el análisis de los Sistemas Nacionales de Innovación. Se reconoce que la generación, adopción de tecnologías y mejoras consiguientes de la competitividad internacional constituyen procesos de naturaleza sistémica; el sistema de innovación depende de un conjunto de sinergias y externalidades de varias clases, más allá de las reacciones maximizadoras de las firmas frente a los cambios de incentivos   (CEPAL, 2002). Los actores sociales, las interacciones y las instituciones son componentes importantes en la conceptualización de los procesos de innovación (Malerba, 2005). Ellos pueden involucrar la co-evolución de elementos como la tecnología, la base de conocimientos, el aprendizaje, la demanda, las firmas, las organizaciones no empresariales y las instituciones.43

Fortaleciendo estos criterios, recientemente se han realizado investigaciones acerca del impacto   de   la   inversión   de   capital   TIC   (tecnologías   de  la   información   y   las comunicaciones) en la productividad de la fuerza de trabajo calificada, entre las que se encuentran Lehr y Lichtenberg (1997), Brynjolfsson y Hitt (2000) y Van Reenen y Sadun (2005).
  

43 El interés reciente de algunos gobiernos latinoamericanos de introducir prácticas de innovación tecnológica tiene un carácter diferenciado, siendo notables los avances en países como: Brasil, xico, Argentina, Chile, Costa Rica y Venezuela. No obstante, todos los países enfrentan dificultades en sus respectivas capacidades de realización de la I+D, para la vinculación entre las comunidades científicas y la empresa y en el acercamiento de los núcleos de investigación a los problemas locales de sus respectivos países (CEPAL,
2002).

Lehr y Lichtenberg (1997) refutan la paradoja de Solow mediante el examen de las tendencias en el uso de computadoras en la economía norteamericana para el período 1977
1993. Estimando funciones de producción para una muestra de industrias norteamericanas, los autores demuestran que el capital correspondiente a los ordenadores impacta  positiva  y  significativamente el  crecimiento  de  la  productividad,  explicando incluso el diferencial entre industrias. Por esta razón, concluyen que la introducción de computadoras en los centros laborales potencia la productividad del trabajo, especialmente si estas son de uso personal.

Por  su  parte,  Van  Reenen  y  Sadun  (2005)  demuestran  que  la  inversión  en  TIC  ha impactado significativamente la productividad en Estados Unidos, pero no en Europa, lo cual asocian a la persistencia de deficiencias en los modelos de organización empresarial. Mediante otro análisis para las mismas regiones, De la Fuente (2008) concluye que la implementación de las TICs y su rápido incremento en la economía norteamericana han tenido un fuerte impacto en la productividad de la fuerza de trabajo calificada en el período 1973 2006, siendo más ligero para el caso europeo en términos relativos. Según el autor, el impacto en la productividad de la inclusión de las TICs no se reduce a las empresas donde se implementan sino que tiene un efecto catalizador sobre la productividad de otras empresas. Como corolario, puede extraerse que los efectos productivos positivos se potencian cuando la complementariedad de los factores se combina con la existencia de adecuados encadenamientos intersectoriales.

Resumiendo, los estudios anteriores transmiten la idea de que resulta imprescindible la complementariedad entre los niveles de calificación y la infraestructura tecnológica disponible, así como la disponibilidad de los medios de producción. Adicionalmente a los efectos que en términos de racionalidad económica generan los desajustes entre ambos elementos, se puede señalar otro problema importante. Según Laroche et al. (1999) y Capocasale (2000), el capital humano se deprecia cuando está ocioso. Así, como señala Mendoza (2004), el rendimiento del capital humano se reduce si no está en contacto con actividades complejas que se caractericen por tener incorporado el avance tecnológico, lo cual es sumamente importante en una economía internacional basada en el aprendizaje (Lundvall, 2002).

Desde la perspectiva de este trabajo, si bien parte de esta depreciación está directamente relacionada con los shocks externos, el envejecimiento o el desempleo involuntario, otra parte queda determinada por la obsolescencia de la tecnología y los conocimientos empleados en el proceso productivo del cual forman parte, la limitación en el acceso a nuevas fuentes de información y productos, así como por las decisiones individuales de utilización de los propios  conocimientos y  habilidades en el  proceso productivo, que puedan derivarse del esquema de incentivos.

Incentivos como determinante de la productividad del trabajo calificado


Existe consenso de que la motivación de los trabajadores constituye una de las principales fuentes para el eficiente uso de sus capacidades, en función del crecimiento de la producción y la riqueza. Según González (2003), la generación de incentivos productivos comprende un grupo de acciones encaminadas a satisfacer las necesidades materiales y espirituales de los trabajadores, con el objetivo de incrementar el grado de satisfacción del trabajador y su productividad. En ese sentido, los estímulos materiales satisfacen necesidades objetivas de los individuos y su expresión fundamental es el salario. Por otra parte, los incentivos morales se relacionan con las necesidades de reconocimiento social, de participación y superación profesional que presentan los trabajadores y que constituyen motivaciones individuales.

Los  primeros  antecedentes  del  análisis  de  la  relación  incentivos   productividad  se remontan a la segunda mitad del siglo XIX, referenciados en el marco de las diferentes escuelas que conforman la Teoría de la Administración. En Ávila y Medina (2002) se resumen los planteamientos más significativos de los exponentes de esta escuela. Los principales enfoques sobre el tema se pueden agrupar en dos grandes vertientes: i) una menos reconocida por la teoría convencional y más relacionada con los enfoques sociológicos de las relaciones humanas y ii) aquella que enfatiza en el papel de las remuneraciones   incentivos   materiales  como   determinantes  de   la   productividad, sustentada fundamentalmente en las teorías de los salarios de eficiencia.

El primer grupo se basa en la conducta del individuo en las organizaciones, haciendo énfasis en la importancia del componente humano y la subjetividad como determinantes del rendimiento de los trabajadores. Desde esta perspectiva, cobran especial relevancia la creación de condiciones psicológicas adecuadas, la participación del trabajador en los grupos sociales, el reconocimiento social, la responsabilidad, la promoción del trabajo en equipo y las condiciones de trabajo, seguridad y posibilidades de capacitación, buscando un equilibrio entre el hombre social” y el “hombre racional44(Ávila y Medina, 2002; Álvarez, 2005; Ramos y Triana, 2007 y Martinto, 2010)45.

Sin embargo, Maslow argumentó que las necesidades humanas se ordenaban en forma piramidal, donde el pico incluía las necesidades de autorrealización mientras que la base se relacionaba   con   la   supervivencia,   exigiendo   una   solución   más   inmediata.   Esta consideración condujo a que el salario asumiera el papel preponderante como generador de incentivos. Por ello, con independencia de la importancia de los aspectos anteriores, su aplicación y relevancia ha descrito un comportamiento espiral de énfasis y retroceso, quedando subordinado al análisis de la relación salario productividad (Ávila y Medina, 2002).


La génesis de la relación salario productividad, se encuentra en la teoría del capital humano, que establece un vínculo directo entre el nivel de escolaridad, la productividad y los salarios. Sin embargo, sus principales antecedentes se encuentran en los trabajos de Taylor, quien desarrolló la idea de la remuneración monetaria basada en la producción, a partir de un esquema de premios por el cumplimiento de las normas de producción, las cuales podrían incrementarse una vez que fuesen superadas. Según el autor, el incremento en la productividad debería compensar en exceso los costos asociados a los incentivos financieros (Hellriegel y Jackson, 2006).
En  las  últimas  décadas, los  estudios  en  torno  a  esta  pomica  se  materializan en  el desarrollo de la teoría de los salarios de eficiencia,46 que invirtiendo la relación de causalidad entre el salario y la productividad, sustentan el pago de salarios por encima de los niveles de equilibrio como fuente de incrementos de la productividad. Todos estos modelos hacen depender el esfuerzo de los trabajadores del nivel de satisfacción con su trabajo,  a  su  vez  condicionado  por  el  salario  percibido.  Adicionalmente,  asumen  la

44 Estas ideas se enmarcan en las teorías de la Administración, de las Relaciones Humanas y la Teoría Z.
45  Según Ávila y Medina (2002), este enfoque ha sustentado el éxito de numerosas empresas japonesas, incrementando no solo la productividad y las utilidades en dichas entidades, sino también la satisfacción y
autoestima de sus trabajadores.
46 Los modelos de salario de eficiencia brindan una explicación potencial de las diferencias no competitivas de salarios a través de distintas ramas e industrias para trabajadores con similar característica productiva.


existencia de una relación directa entre el salario que se le paga a cada trabajador y la productividad de estos en su puestos de trabajo.47

Según Plaza (2006), relacionar salarios y productividad se trata, sin duda, de uno de los paradigmas neoliberales que dominan la corriente de pensamiento económico. Para el autor, esta relación unidireccional se sustenta en la teoría de la productividad marginal en un marco de rendimientos decrecientes de los factores de producción.

Sin embargo, los argumentos a favor de este enfoque son múltiples. En primer lugar, salarios superiores elevan el costo de oportunidad de la pérdida del empleo por parte de los trabajadores, lo que induce un mayor esfuerzo y productividad. De esta forma, la probabilidad de  pérdida  del  empleo  mejor  remunerado, funciona  como  una  amenaza creíble que incrementa el esfuerzo y en consecuencia su productividad y los beneficios resultantes para la empresa. Colateralmente, se reducen los costos asociados a la búsqueda, reclutamiento y entrenamiento de la fuerza de trabajo (Stiglitz, 1976).

En esta misma línea, un mayor salario contribuye a la mejor composición de la fuerza de trabajo en la empresa en la medida que incentiva a los trabajadores más calificados a aspirar a sus puestos de trabajo y favorece la permanencia de los ya empleados, lo que reduce los costos de rotación y recalificación de la empresa (Stiglitz, 1976; Akerlof y Yellen, 1988 y Greenwald, 1986). Desde otra perspectiva, si los trabajadores perciben el aumento del salario como expresión de un trato justo, aumentará la lealtad y predisposición al esfuerzo individual y por tanto la productividad (Akerlof, 1984; Akerlof y Yellen, 1988).48 De igual forma, algunos autores argumentan que el impacto será mucho mayor si se aplican sistemas de remuneración basados directamente en la productividad, como los sistemas de pagos por resultados del trabajo (Paarsch and Shearer, 2000; Lazear, 2000, 2004 y Gielen et al., 2006).

  
47  IDIES (2008) defienden que la relación salario productividad es bidireccional. Para los autores, la fijación de un salario mínimo también genera un incentivo perverso a la reducción de la productividad. Adicionalmente, plantean que el rendimiento del trabajador no depende exclusivamente de su esfuerzo físico, sino también de su capacidad humana. En base a ello, argumentan que el salario mínimo se debe fijar a nivel sectorial y en proporción con la variación de la productividad laboral.
48 Un argumento alternativo que fundamenta esta relación es presentado por Bester y Petrakis (2003). Su idea básica es que en el proceso de maximización de beneficios, las empresas ajustan su actividad de innovación
al incremento de los costos laborales. Por ello, elevados salarios incrementan los incentivos a la innovación que a su vez incrementa la productividad.


Finalmente, partiendo de que para las empresas la supervisión y control del esfuerzo de sus trabajadores puede resultar imperfecta o excesivamente costosa, una prima de salarios por encima del salario de mercado actuaría como incentivo a la intensidad del trabajo en la medida que el diferencial salarial significaría el costo asociado al despido.49 La novedad de este enfoque, sustentado en los Modelos de Regulación del Esfuerzo (The Shirking Model) es que incorporan aspectos relacionados con la penalización, introduciendo la idea de que para que estos estímulos sean efectivos necesitan estar respaldados por un conjunto de
acciones que penalicen los malos comportamientos. Sobre este tema, Gelb, Knight y Sabot (1991) mostraron que cuando existen garantías de empleo para la fuerza de trabajo calificada en el sector público, su rendimiento se reduce como promedio entre un 0,7% y un 2% (partiendo de un crecimiento del 2,5%), dependiendo de la fortaleza en la respuesta del gobierno.50

En cuanto a la evidencia empírica, Solow (1979) define la función de producción de la empresa como una función que depende del mero de trabajadores de la empresa y de su productividad, la cual a su vez depende del salario real. Su resultado más relevante, fue determinar que el salario de eficiencia es aquel cuya elasticidad con respecto a la productividad del trabajador es igual a uno. Por tanto el salario de eficiencia depende únicamente de las características que tenga la relación salario - productividad  y no de las condiciones de oferta y demanda del mercado laboral.

Por su parte, Hallam et al. (1998) evalúan el efecto de los salarios y del desempleo en la productividad de industrias pertenecientes al sector manufacturero de Estados Unidos en el período 1968-1991, obteniendo que pagar salarios un 10% por encima del nivel de equilibrio genera un aumento de entre el 2% y el 6% en la producción del sector manufacturero. Asimismo,  un  aumento  del  10%  en  la  tasa  de  desempleo  genera  un aumento de 1% en la producción, lo cual apoya la importancia de las penalizaciones.

Dentro  de  otros  trabajos  de  importancia  destacan  Wadhwani  y  Wall  (1991)  quienes estiman el efecto de variaciones en el salario y el desempleo sobre la productividad de los


49 Eaton y White (1983), Bullow y Summers (1986), Jones (1985), Shapiro y Stiglitz (1984), entre otros.
50 Según Assaad (1994), la política implementada en Egipto que garantizaba a cada graduado de preparatoria y nivel superior un empleo y obligaba a los ministerios gubernamentales y paraestatales a emplear una cuota
fija al año, introdujo considerables distorsiones en la asignación (excesos de plantillas y burocracias gubernamentales) y rendimiento de los trabajadores calificados,


trabajadores para una muestra de 219 empresas manufactureras de Gran Bretaña en el período 1972 1982. Sus resultados reflejan un valor aproximado de la elasticidad productividad – salario de 0,6 y de la elasticidad productividad – desempleo de 0,05. Un análisis similar realizan Capelli y Chauvin (1991) para una única planta de Estados Unidos en el año 1982. Según los autores, cuando el salario es elevado, se reducen los problemas de disciplina y se incrementa la intensidad del trabajo. Adicionalmente, incorporan el efecto que sobre el esfuerzo ejerce la relación entre los directivos y los sindicatos.

Por consiguiente, existe un aparente consenso acerca de que mayores niveles de salarios y el establecimiento incentivos fundamentados en la productividad individual implican incrementos en la productividad del trabajo. Sin embargo, el énfasis en estas formas de estimulación  ha  relegado  a  un  segundo  plano  lo  concerniente  a  la  satisfacción  del trabajador  desde  otras  aristas,  elementos  de  suma  importancia  para  una  economía socialista, donde el trabajador cumple la dualidad de ser fuerza de trabajo y transformador activo de la sociedad.

Como ha podido apreciarse a lo largo del capítulo, en la literatura pueden encontrarse múltiples conceptos que identifican al capital humano con los conocimientos y habilidades de los individuos que incrementan su productividad e impactan el crecimiento. Esta condición ha generado diversas formas de medición relacionadas en lo fundamental con variables educativas, destacándose los años medios de escolaridad por su sencillez y disponibilidad.  Pese su amplia difusión, esta teoría ha sido objeto de numerosas críticas que van desde el cuestionamiento a sus formas de cuantificación hasta sus preceptos teórico metodológicos, incluso con propuestas de sustitución conceptual. A tono con lo anterior, en la presente investigación se emplea la categoría fuerza de trabajo calificada para el análisis de su relación con el crecimiento.

Con respecto a esto último, teóricamente se reconocen las externalidades que derivan de la mayor calificación de la fuerza de trabajo. Los canales de transmisión son variados, desde el incremento de la productividad, la capacidad de aprendizaje y acceso a la información hasta una mayor disposición a los cambios y la innovación tecnológica. No obstante, los resultados empíricos contrapuestos de su contribución al crecimiento, han condicionado que las explicaciones se concentren en deficiencias econométricas, tales como problemas de medición y modelación.

La práctica demuestra que las políticas que impulsan los países son las que determinan el verdadero impacto de la calificación en el crecimiento y desarrollo de los países. La desconexión entre los sistemas educativos, productivos y de innovación, la composición en cuanto a niveles y especialidades de la fuerza de trabajo, la correspondencia entre la calificación y los requerimientos de los puestos laborales, la ausencia de programas estratégicos de desarrollo a escala nacional, el grado de avance tecnológico, el deterioro de la infraestructura pública y empresarial, el sistema de incentivos, entre otros, son factores que explican el papel de la educación como determinante del crecimiento.

En el caso de Cuba, estos elementos adquieren una relevancia especial dada la importancia de la educación dentro del proyecto socialista. Es por ello que los apartados siguientes intentan determinar la contribución de la calificación al crecimiento en el contexto cubano así como los elementos que pudieran explicar su comportamiento.

Continuará