Data Lake
Un repositorio de datos sin límites que permite tomar medidas inteligentes
- Almacene y analice archivos con un tamaño de petabytes y billones de objetos
- Desarrolle programas en paralelo de forma masiva con sencillez
- Depure y optimice sus programas de macrodatos con facilidad
- Seguridad, auditorías y soporte técnico de nivel empresarial
- Comience en segundos, escale la capacidad de forma instantánea y pague por trabajos
- Basado en YARN, diseñado para la nube

Data Lake Analytics: un servicio de trabajos de análisis sin límites que permite tomar medidas inteligentes
El primer servicio de análisis en la nube donde puede desarrollar y ejecutar fácilmente programas de transformación y procesamiento de datos paralelos masivos en U-SQL, R, Python y .Net a través de petabytes de datos. Sin infraestructura para administrar, procese datos a petición, escale al instante y pague solo por trabajo. Más información

HDInsight: servicio de Apache Spark y Hadoop® en la nube para empresas
HDInsight es la única oferta de Hadoop en la nube totalmente administrada que proporciona clústeres de análisis de código abierto para Spark, Hive, Map Reduce, HBase, Storm, Kafka y R-Server, con el respaldo de un acuerdo de nivel de servicio del 99,9 %. Cada una de estas tecnologías de macrodatos, así como aplicaciones de fabricantes de software independientes, se pueden implementar fácilmente como clústeres administrados, con seguridad y supervisión de nivel empresarial. Más información

Data Lake Store: un repositorio de datos sin límites que permite llevar a cabo análisis de macrodatos
El primer repositorio de datos en la nube para empresas que es seguro, que se puede escalar de forma masiva y que se ha creado conforme al estándar abierto HDFS. Sin límites en cuanto al tamaño de los datos y con capacidad para ejecutar análisis en paralelo de forma masiva, ya puede obtener valor de todos sus datos no estructurados, semiestructurados y estructurados. Más información

Desarrolle, depure y optimice programas de macrodatos con facilidad
Encontrar las herramientas adecuadas para diseñar y ajustar las consultas de macrodatos puede ser difícil. Con Data Lake, es muy fácil, gracias a la perfecta integración con Visual Studio, Eclipse e IntelliJ, que le permite usar herramientas que ya conoce para ejecutar, depurar y ajustar el código. Las visualizaciones de sus trabajos de U-SQL, Apache Spark, Apache Hive y Apache Storm le permiten ver cómo se ejecuta el código a escala e identificar cuellos de botella en el rendimiento y optimizaciones de los costos, lo que facilita el ajuste de las consultas. Nuestro entorno de ejecución analiza de forma activa los programas conforme se ejecutan, y ofrece recomendaciones para mejorar el rendimiento y reducir los costos. Los ingenieros de datos, administradores de bases de datos y arquitectos de datos pueden usar aplicaciones que ya conocen, como SQL, Apache Hadoop, Apache Spark, R, Python, Java y .NET, para ser más productivos desde el primer momento.

Integración sin problemas con sus inversiones de TI existentes
Uno de los mayores retos de los macrodatos es la integración con inversiones de TI existentes. Data Lake es una parte fundamental de Cortana Intelligence, es decir, funciona con Azure Synapse Analytics, Power BI y Data Factory para ofrecer una plataforma completa de análisis avanzado y macrodatos en la nube que le ayuda en todo, desde la preparación de los datos hasta la realización de análisis interactivos en conjuntos de datos a gran escala. Con Data Lake Analytics, podrá actuar respecto a todos sus datos con virtualización optimizada de los mismos en sus orígenes relacionales, como Azure SQL Server en Virtual Machines, Azure SQL Database y Azure Synapse Analytics. Las consultas se optimizan automáticamente trasladando el procesamiento cerca de los datos de origen, sin mover los datos, lo que maximiza el rendimiento y minimiza la latencia. Por último, dado que Data Lake se encuentra en Azure, puede conectarse a cualquier dato generado por aplicaciones o introducido por dispositivos en escenarios de Internet de las cosas (IoT).

Almacene y analice archivos con un tamaño de petabytes y billones de objetos
Data Lake se ideó desde cero para escala y rendimiento en la nube. Con Azure Data Lake Store, su organización puede analizar todos sus datos en un único lugar sin restricciones artificiales. Data Lake Store puede almacenar billones de archivos donde un único archivo puede tener un tamaño de más de un petabyte, es decir, 200 veces más grande que lo permitido en otros almacenes en la nube. Esto significa que no tiene que reescribir código a medida que aumenta o disminuye el tamaño de los datos almacenados o la cantidad de procesos involucrados. Esto le permite centrarse únicamente en su lógica de negocios y no en cómo procesar y almacenar grandes conjuntos de datos. Data Lake también elimina las complejidades normalmente asociadas a macrodatos en la nube, garantizando que puede satisfacer sus necesidades de negocio actuales y futuras.

Asequible y económico
Data Lake es una solución económica para ejecutar cargas de trabajo de macrodatos. Puede elegir entre clústeres a petición o un modelo de pago por trabajo cuando se procesen los datos. En ninguno de los casos se requiere hardware, licencias o contratos de soporte específicos de servicio. El sistema se escala o reduce verticalmente según sus necesidades empresariales, lo que significa que nunca paga más de lo que necesita. También le permite escalar el almacenamiento y los procesos independientemente, lo que permite una flexibilidad más económica que las soluciones de macrodatos tradicionales. Por último, minimiza la necesidad de alquilar equipos de operaciones especializados, normalmente asociados a la ejecución de una infraestructura de macrodatos. Data Lake minimiza los costos maximizando al mismo tiempo el retorno de su inversión de datos. Un estudio reciente demostró que, con HDInsight, el TCO es un 63 % más bajo que si se implementa Hadoop en el entorno local durante cinco años.

Seguridad, auditorías y soporte técnico de nivel empresarial
Data Lake es un servicio totalmente administrado por Microsoft, que también ofrece soporte técnico, y respaldado por un acuerdo de nivel de servicio. Con soporte técnico ininterrumpido (24/7), puede ponerse en contacto con nosotros para tratar cualquier reto al que se enfrente con la solución de macrodatos completa. Nuestro equipo supervisa su implementación, de forma que no lo tiene que hacer usted, y se asegura de que funcionará sin interrupciones. Data Lake protege sus activos de datos y extiende sus controles de seguridad y gobernanza locales a la nube con facilidad. Los datos se cifran siempre; en movimiento, con SSL, y en reposo, con claves respaldadas con HSM y administradas por el usuario o el servicio en Azure Key Vault. Características como el inicio de sesión único (SSO), autenticación multifactor y la administración sin problemas de millones de identidades se integran a través de Azure Active Directory. Puede autorizar a usuarios y grupos con listas ACL pormenorizadas basadas en POSIX para todos los datos del almacén, habilitando controles de acceso basado en rol. Finalmente, puede satisfacer sus necesidades de seguridad y cumplimiento normativo auditando cada acceso o cambio de configuración en el sistema.
Cree soluciones de Data Lake usando estas eficaces soluciones
HDInsight
Aprovisione clústeres de Hadoop, Spark, R Server, HBase y Storm en la nube
Data Lake Analytics
Servicio de análisis distribuido que facilita los macrodatos
Azure Data Lake Store
Lago de datos seguro y escalable para análisis de alto rendimiento
Apache Hadoop® y los nombres de proyectos de código abierto asociados son marcas comerciales de Apache Software Foundation.