sábado, 18 de diciembre de 2010

Prevención con inteligencia: la automatización de tareas rutinarias en control interno

Prevención con inteligencia: la automatización de tareas rutinarias en control interno
Actualmente, muchas actividades rutinarias de control interno se ejecutan manualmente. No obstante, existen cada día más soluciones tecnológicas para automatizar las tareas y ganar eficiencia sin perder seguridad...

En nuestro mundo actual, el día a día nos inunda de actualizaciones e innovaciones tecnológicas que, un par de siglos atrás, hubieran sido consideradas fantasías.

Cruzar el Atlántico hoy insume el mismo tiempo que una jornada laboral (si es que alguien aún sigue trabajando sólo 8 horas diarias), y enviar un mensaje de Buenos Aires a Madrid para avisar que estamos en camino demora lo que nuestros dedos en escribir "Tamos dspgndo" (antes que nos indiquen apagar el celular).

Sin embargo, y a pesar de estos increíbles avances, algunas actividades requieren hoy casi el mismo tiempo que hace 100 o 200 años, aun cuando muchas se han tecnificado como, por ejemplo, afeitarse o leer un libro (e-book, por supuesto).

Las conciliaciones bancarias

En el mundo corporativo, existen innumerables actividades manuales y rutinarias (con sus respectivos controles de idénticas características) que se acumulan y parecen no tener puntos de mejora más allá de empleados bien entrenados y eficientes.

Entre estas tareas se destacan las conciliaciones, en general, y las bancarias en particular.

Una firma que tenga más de 5 cuentas bancarias activas con un volumen interesante insumirá al menos 40 horas/hombre mensuales en ejecutar este control.

Si consideramos la criticidad de conciliaciones bien hechas, donde se detectan irregularidades en los ingresos o egresos de fondos, es entendible que no puede ni debe eludirse la existencia de las mismas.

Sin embargo, la preparación de una conciliación típica insume el 90% de tiempo en actividades mecánicas de cruce y "matcheo" y sólo un 10% de análisis y racionalización.

Así, para el caso de las 40 horas mensuales (una semana laboral) sólo 4 estarán dedicadas a la revisión de la información, la identificando diferencias y la detección de situaciones que requieren profundizarse.

Pero, ¿es posible modificar esta realidad, más allá de las funcionalidades que ofrecen algunos ERPs? ¿Es factible automatizar las rutinas manuales tradicionalmente ejecutadas por ejércitos de analistas?

El mercado hoy ofrece novedades en este ámbito que nos permiten responder por la afirmativa. Hoy existen soluciones que, obteniendo las bases de datos contables y bancarios, ejecutan, en pocos segundos y con un asombroso grado de eficiencia, la tarea que antes llevaban horas y días.

De esta forma, permite al responsable dedicarse al análisis, mejorando el rendimiento y reduciendo los tiempos de respuesta y elimina la tediosa tarea de cruzar, lápiz en mano, interminables listados de cheques, transferencias y movimientos.

Las planillas de cálculo

Cuando recorremos los escritorios de una oficina tipo, y más aun si estamos en el área de Administración y Finanzas, seguramente encontremos que la mayoría de las computadoras en uso tienen abierta alguna planilla de cálculo.

Pero, en determinadas organizaciones, el uso de este aplicativo puede transformarse en un verdadero dolor de cabeza.

Son buenas prácticas cada vez más difundidas el guardarlas en las redes corporativas en lugar de almacenarlas en discos rígidos locales, protegerlas con contraseñas y limitar el acceso a ciertos usuarios, entre otras medidas.

Pero sigue siendo un problema para quien debe supervisarlas y validar la información que contienen (algunas, verdaderos monumentos a la complejidad) el otorgarles la confianza necesaria, asegurándose por ejemplo, que las fórmulas son consistentes, que los vínculos están bien construidos, que las celdas de control efectivamente controlan, que no hay datos o celdas ocultos que alteren el número final e innumerables etcéteras.

Teniendo en cuenta que la inmensa mayoría de los papeles de trabajo de un analista se hacen utilizando planillas de cálculo y que los resultados se incorporan directamente, por ejemplo, a la contabilidad, es altamente recomendable el uso de revisores electrónicos de planillas.

Hemos sido testigos de algunas de las situaciones en las que, de haberse empleado un revisor, se habrían detectado tempranamente situaciones que se volvieron complejas:

1) Un banco en los Estados Unidos dio de baja erróneamente 2.400 millones de dólares en hipotecas por deficiencias detectadas posteriormente en planillas clave.

2) Una firma en Argentina estuvo al borde del re-statement por fallas en los reportes llevados en planillas de cálculo sin integridad. La empresa invirtió cientos de horas hombre en detectar la falla, hasta que descubrió que el problema eran filas intercaladas por error.

3) Una organización presentaba un sobrevaluación de 2.600 millones en las ganancias presupuestadas por haber "olvidado" un signo MENOS en una fórmula.

Monitoreo continuo

Hasta aquí, hemos hecho una somera revisión de dos clásicas actividades que habitualmente se ejecutan en forma manual, implicando alto riesgo e insumiendo recursos en tiempo y dedicación.

Pero, ¿qué ocurre en lo relativo al monitoreo de operaciones aún más complejas?

Actualmente, la tendencia del mundo corporativo es la de analizar las vulnerabilidades existentes frente a la probabilidades de ocurrencia de las fallas.

De esta manera, se busca avanzar hacia una continua y mejorada evaluación de riesgos, determinando las competencias necesarias para administrarlos. Así, se incrementa la evaluación misma y se traslada a toda la empresa, incluyendo a las contrapartes y los eventuales socios, haciendo énfasis en la continuidad del negocio.

¿Cuál es el impacto de esta forma de evaluación? Se mitigan las probabilidades para concentrarse en las debilidades, las evaluaciones se tornan más desafiantes, cruzando las fronteras de la empresa y avanzan sobre los límites organizacionales y políticos y se determinan programas de respuesta rápida y flexible para responder a riesgos emergentes.

Para lograr esto, es necesario incorporar herramientas que faciliten la automatización del monitoreo y los controles.

No obstante, la automatización, en sí misma, no significa mejorar los controles. Tal vez el mejor ejemplo, podemos encontrarlo en las transacciones que continuamente se ingresan en los distintos módulos de un ERP.

¿Cómo asegurarnos de que los asientos diarios están debidamente autorizados? ¿Cómo saber si un pago podría estar duplicado y, a pesar de las restricciones en los módulos, igualmente se pudo generar? ¿Hay manera de saber, sin mayor esfuerzo, que un proveedor ha sido dado de alta por un usuario que tiene un perfil inadecuado?

Estos y otros ejemplos hacen que las tareas de cierre de reportes mensuales se vuelvan un verdadero desafío para supervisores, gerentes y directores preocupados por las cifras y datos que tienen frente a ellos.

El mercado ofrece hoy muy buenas herramientas que permiten incorporar tecnología al programa de Monitoreo Continuo sobre las transacciones en prácticamente cualquier sistema que se utilice, brindando de esa manera, la seguridad que las operaciones de pagos, cobros, despachos, viáticos, registro contable y otras se encuentran bajo una estricta revisión, adicional a los controles propios de cada uno de esos circuitos.

El control de contratistas

Saliendo del campo numérico y yendo al operacional, toda organización se enfrenta a múltiples contingencias que requieren atención y cuidado.

Tal vez una de las de mayor riesgo, por sus derivaciones y altas probabilidades de ocurrencia, es la vinculada al manejo de las relaciones y formalidades con terceros ajenos a la empresa.

La tercerización (outsourcing) se ha vuelto una práctica común, pero también riesgosa, pues en algunos casos, los externos superan largamente al propio personal y si se cuentan con varias locaciones donde éstos se desempeñan el riesgo es incremental.

Estar seguro de que todo el personal que accede a las instalaciones cuenta con los permisos correspondientes, con las protecciones indicadas, con el entrenamiento mandatario, las calificaciones requeridas, la documentación laboral e impositiva en regla y tantos otros requisitos y, además, contar con un soporte de rápido acceso donde sea que esto ocurra hoy es un deber casi ineludible.

El control de contratistas es una metodología de gestión de riesgos (laborales, legales y contractuales) provenientes de potenciales problemas derivados de trabajar con contratistas, subcontratistas, sus empleados, y los vehículos que ingresan a la planta y/o instalaciones de la empresa.

Estos riesgos se identifican y analizan en forma cuidadosa, y luego se colocan controles para mitigarlos.

La tendencia actual es realizarlo mediante herramientas informáticas que trabajan con un sistema de alarmas a fin de parametrizar los peligros y accionar antes de que se materialicen.

De esta forma, se minimiza la probabilidad y el impacto relacionado con las contingencias que involucra toda tercerización de servicios y se reduce el riesgo de que se invoque la responsabilidad solidaria que surge al subcontratar un externo.

En definitiva, en los tiempos actuales, la reducción de costos es casi obligatoria y la eficiencia, un deber. Y, en este marco, es posible avanzar hacia la automatización de actividades típicamente manuales y de supervisión.

Tal vez uno de los desafíos del ejecutivo en esta época post-crisis es dejar de administrar "Centros de Costos" y pasar a gerenciar "Centros de Eficiencia". Y, como decía un clásico de los 70: "Tenemos la tecnología, podemos hacerlo".

sábado, 10 de abril de 2010

El rol de las tecnologías de la información en la reducción de costos

Las tecnologías de la información facilitan diversas tareas en la gestión de las organizaciones. Les comento a continuacion algunos detalles.

La mayoría de las empresas cuenta con información de costos atomizada en diferentes bases de datos y aplicaciones.

Esto requiere de una importante carga horaria en la búsqueda y clasificación de datos, quitando tiempo para las tareas de mayor valor: el análisis y la generación de información útil para la toma de decisiones.

Afortunadamente, existen múltiples herramientas tecnológicas que pueden ayudarnos en estas tareas. Muchas veces, vienen incluidas en las funcionalidades de costos de los ERP de clase mundial como SAP u Oracle.

En otros casos, se pueden obtener aplicando extensiones del ERP o integrando las diferentes aplicaciones que procesan los diferentes conceptos de costos de las empresas.

Así, veamos de qué forma la tecnología puede sernos útil para gestionar los costos en nuestro negocio.

Reducción de costos de fabricación con demanda variable

En un escenario de fábrica que produce para stock y demanda variable, es difícil evitar costos de stock y/o de paradas y cambios en las líneas de producción requeridas para satisfacer los cambios de la demanda.

Como solución de bajo costo y alto impacto, es posible desarrollar un tablero de control. De esta forma, el Área de Ventas podrá consultar la programación de la producción con una o dos semanas de antelación, y simular escenarios para reprogramar y/o renegociar entregas.

En caso de que deba solicitarse un cambio al Área de Producción, éste podrá hacerse con mayor anticipación, lo que permitirá reprogramar la actividad de la planta, con el consecuente ahorro asociado.

Prevención de pérdida de rentabilidad por aumento de costos en insumos críticos

Otra medida importante consiste en implementar un sistema que integre los costos de insumos con los estándares de fabricación, los precios de compra y reposición y las alertas provenientes del mercado.

Esto nos permitirá reaccionar más rápidamente que la competencia, para abastecernos, por ejemplo, de sustitutos de igual o menor precio de reposición.

Utilizando una herramienta de Workflow y configurando una simple regla de negocio, el sistema podrá alertarnos, vía email, de las variaciones de precios en nuestros insumos críticos, ofreciéndonos la posibilidad de utilizar sustitutos en stock o sugerir proveedores con mejores precios.

Prevención de costos de soporte por defectos de fábrica

Si contamos con una herramienta de Workflow, podremos recibir alertas de calidad en la producción. Esto nos permitirá planificar nuestras entregas y coordinar la asistencia técnica, minimizando costos de devoluciones (además del riesgo de perder clientes insatisfechos).

Habitualmente, el Área de Soporte Técnico no cuenta con información anticipada de las fallas de producción.

Así, tener visibilidad anticipada de los partes de producción y de los tiempos de entrega favorece el desarrollo de acciones preventivas que, en muchos casos, podrán ser aceptadas por la demanda y, en otros, podrán ser generadoras de planes de contingencia.

Para que esto sea viable, es importante que la plataforma reciba información de todas las etapas de la cadena: Ventas-Producción-Despacho y Soporte.

Reducción de costos en la curva de aprendizaje

Si contamos con procesos documentados, podremos acelerar la curva de aprendizaje de los nuevos ingresantes en la empresa y reducir costos por autocapacitación.

Adicionalmente, si utilizamos una herramienta para mapear nuestros procesos de negocio (BPM, Business Process Management), donde se asignen roles y recursos por proceso, podremos controlar los costos de proceso como si fueran simples órdenes de trabajo de un sistema de mantenimiento correctivo.

Reducción de costos de ventas

Contar con una herramienta para registro de contactos y de acciones de venta online, permitirá que los supervisores amplíen su rol de controlar el proceso comercial al de coach que colabora en cada situación y persona, ayudando a calificar oportunidades, negociar condiciones, cerrar ventas, etc.

Para esto, tenemos soluciones de bajo costo y alto impacto como los CRM (Customer Relationship Management).

Además de reducir costos de venta, el CRM nos ayuda a conocer y comprender la demanda. En ciertos casos, esto nos permitirá modificar la fabricación de los pedidos para satisfacer una demanda personalizada.

Si además se integra con las campañas de Marketing por un lado y con las Ventas del ERP por el otro, podrán medirse los resultados de la campaña en su tasa de conversión de ventas efectivas esperadas.

En definitiva, la tecnología de la información nos brinda múltiples oportunidades para una gestión más inteligente de nuestros costos.

No obstante, el aprovechamiento de dichas tecnologías requiere una voluntad previa de ajustar la cultura organizacional de manera de facilitar la integración y articulación de personas con informaciones, asignar "dueños" de procesos, redefinir roles y responsabilidades y priorizar la calidad de los procesos y datos alineados.

De esta manera, nuestro sistema de información de costos nos ayudará, no sólo a gastar menos, sino a mejorar la calidad del gasto y de nuestras asignaciones de recursos.

sábado, 3 de octubre de 2009

Por qué son exitosas Facebook y Twitter

Para que una red social sea exitosa debe tener perfil, presencia y reputación". Son las claves de una buena red. Como ejemplo de reputación podemos nombrar el caso de Taringa, que con un crédito monetizado revolucionó el concepto. "Fijense que llega a tener más lectores que un diario de tirada nacional", dijo Aníbal Carmona, presidente de Unitech, quien dio los secretos del éxito del llamado software social.

"La escala mata las conversaciones", agregó al explicar cómo las redes sociales deben manejar sus políticas para ganar usuarios. "Uno sólo puede relacionarse con dos amigos íntimos, tres a lo mucho, con doce amigos no tan íntimos y con un máximo de 150 personas en el círculo. Está probado empíricamente, y si no vean este ejemplo: si vamos a una fiesta de 500 personas, todos se quedaran en un grupo cerrado, cuando la mayoría se haya ido, recién en ese momento comenzará la interacción. Porque repito, la escala mata las conversaciones".

"Es por eso que las redes sociales tampoco son exitosas cuando proponen que uno se vincule con miles de personas. Y acá es curioso analizar el caso de Facebook, que inteligentemente dividió en grupos a la gente, lo que nos permite sociabilizar mejor y seguir en esa red" agregó Carmona.

Otro punto que analizó el presidente de Unitech es que el diseño de las redes sociales, ya que la conducta del usuario es lo que define su estructuración. Se refirió al sentido de la eficacia que deben tener para poder generar la sensación de necesidad, traducida en el apego que termina teniendo el twittero o el bookero.

"Cuando hablamos de software social hay que tener en cuenta el carácter público de tal. La gente es diferente y quiere cosas distintas. La identidad se basa en el contexto, y es por eso que los avatares y los perfiles son diferentes. Algo curioso es que nadie se compromete con un perfil o un avatar por mucho tiempo, pierde representatividad. Podemos analizar el caso de Second Life que terminó fracasando, en parte, por esto", y contó el ejemplo de un usuario en Facebook que se llama Dios, y que tiene unos tres amigos: Adán, Eva y la manzana. "Porque no es representativo", aseguró Carmona.


La web 3.0
"En la web 1.0 las personas se conectaban sólo a sitios. En la 2.0, la que estamos viviendo, las personas se conectan unas a otras a través de redes sociales con la posibilidad de compartir información", dijo la rectora de la Universidad de la Punta (ULP), Alicia Bañuelos.

"La web 3.0 está basada en una web semántica. Hará posible que las computadoras hablen entre ellas para que a la gente le resulte más sencillo acceder al conocimiento", explicó.

La idea es simple. Las computadoras serán capaces de comprender significados e interactuar entre ellas. Por ejemplo si hoy en día ponemos en un buscador "vacaciones familiares es Córdoba", el buscador nos lanzará 87 mil resultados posibles, lo cual es imposible de leer. Con la web 3.0, la máquina comprenderá que la búsqueda va orientada a obtener resultados de las mejores opciones para que una familia pase sus vacaciones en la localidad de Córdoba, entonces, sugerirá resultados con presupuestos, hoteles, estadías, paseos, etc.

Una de las aplicaciones 3.0 desarrolladas por la Universidad de la Punta, en conjunto con el Ministerio de Transporte, Industria y Comercio de la Provincia de San Luis, es "Mi próximo colectivo". Este servicio, que se aplicará sobre el transporte interurbano, permite a los ciudadanos consultar en qué empresas pueden viajar, informarse sobre la ubicación de las diferentes paradas y también obtener el tiempo aproximado en que llegará el vehículo a una parada determinada.

Para llevar a cabo este proyecto, la ULP tiene un convenio con la NASA que le permite recibir información vía satélite, al mismo tiempo que se integra con la plataforma de Google Maps.

Otro es "Balance Cero" que pretende bajar las emisiones de gases con efecto invernadero que provocan el calentamiento global y generan trastornos climáticos. Este modelo será replicado en 25 países, entre ellos, Canadá, Estados Unidos y Emiratos Árabes.

miércoles, 26 de noviembre de 2008

Business Intelligence: ¿dónde buscar los datos para encarar un proceso de decisión?

En algunos casos, como el Data Mining o la construcción de un DataWarehouse, se trata de herramientas tecnológicas. En otros, intervienen temas más conceptuales como la recolección de información y la aplicación de modelos de análisis.

Ahora bien, el primer paso de cualquier proceso de decisión consiste en conseguir el conjunto apropiado de datos.

Veamos algunas pautas para lograrlo:

Las fuentes de información, ¿adónde buscar?

Como señaló Tim Kindler (2003), Director de Inteligencia Competitiva de Eastman Kodak Company: "No hay una única y mejor fuente, todas entran en juego en diversos momentos".

La cuestión es saber qué se busca y dónde buscarlo entre todas las fuentes disponibles.

1) Fuentes primarias

Las fuentes primarias son aquellas donde los datos han sido recabados específicamente de acuerdo a las necesidades del investigador a través de la observación, experimentación o entrevistas.

Algunos ejemplos de fuentes primarias son las conferencias y cámaras de la industria, asociaciones de consumidores, distribuidores, puntos de venta o prestación de servicios.

Estos datos son más costosos aunque también mucho más valiosos porque la competencia no los conoce.

2) Fuentes secundarias

Las fuentes secundarias incluyen datos recabados y elaborados, disponibles para cualquiera que quiera buscarlos (o comprarlos).

Típicamente, son documentos elaborados por auditoras, diarios, revistas, medios en Internet, websites de la competencia, cámaras empresariales, folletos, publicidad, etc.

Si bien estos datos son de menor costo, el hecho de que la competencia también pueda acceder a ellos disminuye su valor.

3) Fuentes terciarias

Las fuentes terciarias son guías para encontrar información primaria o secundaria.

Nivel de precisión, ¿los datos deben ser 100 por ciento precisos?

Leonard Fuld, uno de los pioneros en inteligencia competitiva, comentaba en una reciente entrevista: "El mundo de los negocios no es un ámbito científico que busca la perfección. Es un ámbito pragmático. No pretende encontrar todas las respuestas sino que se trata de encontrar respuestas suficientemente buenas".

Así, un segundo punto a considerar es el nivel de precisión de información que se necesita, clave para optimizar el tiempo y los recursos humanos y monetarios que se destinarán a la búsqueda.

¿Cómo se define la información valiosa?

Para ser valiosa, la información recabada debe cumplir con las siguientes características:

1) Debe ser relevante para las decisiones a tomar en nuestro modelo de negocios

2) Debe ser confiable (las fuentes únicas deben ser chequeadas)

3) Debe consistir en datos que describan la situación actual

4) Debe ser objetiva, relevada y brindada por una parte no involucrada en las conclusiones