Todos los Sábados a las 8:00PM

Ahora a suscribirse y seguir el contenido de este blog.

sábado, 28 de marzo de 2020

Pre Taller Actualizacion y Migracion de Base de Datos a 19c

Debido a que los escenarios de actualización y migración pueden diferir de muchas maneras, Oracle proporciona múltiples métodos para actualizar y migrar sus bases de datos a Oracle Database 19c.


Webinar: PLANIFICA Y DISEÑA UN SITIO DE CONTINGENCIA DR

Ayer, hoy y siempre. La estrategia es más importante que la ejecución. Las herramientas hay muchas, pero la visión y dimensionamiento de lo que realmente se necesita según el tamaño de la organización, es lo que hace la diferencia. De nada vale millones de dólares de inversión en infraestructura y software, sino, sabemos como adaptarla a las necesidades del negocio.


Noches de Ciberseguridad: Ciberseguridad y el COVID-19 #ciberseguridad #nochesdeciberseguridad #quédateencasa


Este sábado 28 de marzo de 2020 a las 7:00 pm en Noches de Ciberseguridad conversaremos con expertos sobre la situación actual de ciberseguridad y el COVID-19, nos acompañarán Randall Barnett Villalobos Edgar A. Vega Briceño Luis Gorgona Rodrigo Calvo Kenneth Irvin Monge Quiros Pueden seguir el programa por Facebook o por nuestro Canal en YouTube en el siguiente enlace https://lnkd.in/eikkUQh #ciberseguridad #nochesdeciberseguridad #quédateencasa



sábado, 14 de marzo de 2020

The Changing Role of the DBA: Machine Learning: From Database Developer to Data Scientist in 6 Weeks, by Charlie Berger.



The Changing Role of the DBA: Machine Learning: From Database Developer to Data Scientist in 6 Weeks, by Charlie Berger.

Presenter: Charlie Berger, Sr. Director Product Management, Machine Learning, AI and Cognitive Analytics

Oracle Machine Learning, included free in the Oracle Database EE, SE2 and Autonomous Database, “moves the algorithms; not the data” for 100% in-database processing. Oracle makes building and deploying ML models straightforward. 

Oracle data professionals commonly perform supporting tasks for “data scientists,” typically 80% of the work.

In this webinar, Charlie Berger will share a logical, evolutionary path for Oracle data professionals to leverage their domain knowledge, valuable data skills, and add machine learning. 

Like Penn and Teller’s reveal of how magic tricks work, Charlie will show how easy it is for Oracle data professionals to leverage their SQL skills and data knowledge to build and deploy predictive models throughout the enterprise.

Using many examples, demos, and sharing his extensive experience, Charlie will show you how to extract insights, make predictions, and become an “Oracle Data Scientist” in just 6 weeks!

Promoviendo Oracle Virtual Tour 2020 Contra-Coronavirus Latinoamérica



Este es un llamado a todos los miembros del Programa Oracle en Latinomérica y al público en general.

Compañeros y compañeras, hoy en muchos países de nuestra región, existen miles de personas que han tenido que trasladar su lugar de trabajo a sus hogares o en el peor de los casos, han suspendido labores.

El tema de la pandemia global por el #coronavirus es un gran desafío para toda la humanidad, pero también, crea el escenario perfecto, para cambiar el esquema costumbres, trabajo, comercialización y aprendizaje de todo el mundo.

Te quiero invitar, para que nos únamos todos y podamos aportar tiempo de calidad y conocimiento, para toda la comunidad, aportando ponencias en toda la gama de diversidad de temas del Universo Oracle.

Pongo a su disposición, mi plataforma de Zoom, para que programen webinar gratuitos, hasta con 100 participantes en la sala. Grabaremos las sesiones y luego las colgaremos en un sitio en Youtube, para aquellos que no tengan la posibilidad de conectarse o no lo logren por campo.

Me contactan por @rovaque o ronald.vargas.quesada@gmail.com, me envían el título de la charla, un pequeño resumen, el horario deseado y les colaboro con el tema de la plataforma y la programación.

Por este FB y el blog Oracledbacr.blogspot.com, les estaré brindando apoyo de difusión.

Mirza Yael te agradecería mucho tu apoyo en el eco que podamos hacer a través de tu red social.

Quién se apunta.?
Vamos....

Y recuerden:

"Lavarse las manos constantemente con agua y jabón. Seguir los protocolos de estornudo y tos en el antebrazo y si tienes molestia de resfrío, no salgas de tu casa"

La prevención, comienza con nosotros.

Un abrazo enorme a todos.

jueves, 5 de marzo de 2020

Como instalar Oracle Database 19c utilizando un paquete RPM


Cada vez más, Oracle se preocupa por ayudarnos a hacer las cosas de manera más rápida, fácil y práctica.

Oracle Database 19c, se puede instalar directamente desde el repositorio administrativo de paquetes para Linux, siguiendo los siguientes pasos:

Installing Oracle Database Using RPM Packages
Primero que todo, verique los siguientes puntos que son importantes:
  1. Disponibilidad de memoria
  2. Espacio en disco
  3. Versión del sistema operativo requerida
  4. Verifique que el nombre del hostname y la dirección IP asignada al equipo se encuentran definidos en el archivo /etc/hosts
Proceso en memoria corriendo
[oracle@lab2 etc]$ top
top - 11:39:36 up 23 min,  3 users,  load average: 0.08, 0.77, 2.14
Tasks: 244 total,   1 running, 163 sleeping,   0 stopped,   0 zombie
%Cpu(s):  0.1 us,  0.3 sy,  0.0 ni, 99.6 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
KiB Mem :  8158712 total,  2816204 free,   601552 used,  4740956 buff/cache
KiB Swap:  8257532 total,  8257532 free,        0 used.  7387032 avail Mem

  PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND
 6970 oracle    20   0  162128   4664   3872 R   1.0  0.1   0:00.36 top
 5083 oracle    20   0  214964   3280   2916 S   0.7  0.0   0:09.28 VBoxClient
    1 root      20   0  193820   8472   5744 S   0.3  0.1   0:28.80 systemd
 1582 root      20   0       0      0      0 S   0.3  0.0   0:04.98 xfsaild/dm-0
 6919 root      20   0       0      0      0 I   0.3  0.0   0:00.03 kworker/3:0
    2 root      20   0       0      0      0 S   0.0  0.0   0:00.19 kthreadd
    4 root       0 -20       0      0      0 I   0.0  0.0   0:00.00 kworker/0:0H
    5 root      20   0       0      0      0 I   0.0  0.0   0:00.65 kworker/u8:0
    6 root       0 -20       0      0      0 I   0.0  0.0   0:00.00 mm_percpu_wq
    

Espacio en disco
[oracle@lab2 etc]$ df -h
Filesystem                Size  Used Avail Use% Mounted on
devtmpfs                  3.9G     0  3.9G   0% /dev
tmpfs                     3.9G     0  3.9G   0% /dev/shm
tmpfs                     3.9G  9.4M  3.9G   1% /run
tmpfs                     3.9G     0  3.9G   0% /sys/fs/cgroup
/dev/mapper/ol_lab2-root   50G   12G   39G  24% /
/dev/sda1                1014M  293M  722M  29% /boot
/dev/mapper/ol_lab2-home   50G   46M   50G   1% /home
Documentacion             466G  268G  198G  58% /media/sf_Documentacion
tmpfs                     797M  4.0K  797M   1% /run/user/42
tmpfs                     797M   28K  797M   1% /run/user/54321

Validando la versión del sistema operativo

[oracle@lab2 app]$ more /etc/redhat-release
Red Hat Enterprise Linux Server release 7.6 (Maipo)
[oracle@lab2 app]$ cd /etc
[oracle@lab2 etc]$ ls -la *rele*
-rw-r--r--. 1 root root  32 Nov  2  2018 oracle-release
-rw-r--r--. 1 root root 435 Nov  2  2018 os-release
-rw-r--r--. 1 root root  52 Nov  2  2018 redhat-release
lrwxrwxrwx. 1 root root  14 Apr 13 08:32 system-release -> oracle-release
-rw-r--r--. 1 root root  31 Nov  2  2018 system-release-cpe
[oracle@lab2 etc]$ more oracle-release
Oracle Linux Server release 7.6

[oracle@lab2 etc]$ more os-release
NAME="Oracle Linux Server"
VERSION="7.6"
ID="ol"
VARIANT="Server"
VARIANT_ID="server"
VERSION_ID="7.6"
PRETTY_NAME="Oracle Linux Server 7.6"
ANSI_COLOR="0;31"
CPE_NAME="cpe:/o:oracle:linux:7:6:server"
HOME_URL="https://linux.oracle.com/"
BUG_REPORT_URL="https://bugzilla.oracle.com/"

ORACLE_BUGZILLA_PRODUCT="Oracle Linux 7"
ORACLE_BUGZILLA_PRODUCT_VERSION=7.6
ORACLE_SUPPORT_PRODUCT="Oracle Linux"
ORACLE_SUPPORT_PRODUCT_VERSION=7.6


[oracle@lab2 app]$ more /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
10.0.0.1        lab2 lab2.oracle.com

[oracle@lab2 app]$ more /etc/hostname
lab2.oracle.com
[oracle@lab2 app]$ hostname
lab2.oracle.com

Una vez validado los puntos anteriores, vamos a pasarnos al directorio /opt/app para realizar aquí la descarga de los paquetes.

[oracle@lab2 product]$ cd /opt/app

Con el siguiente comando, podrás descargar directamente la versión de la base de datos, desde el repositorio.

Ten en consideración la velocidad de conexión de tu internet. Son un poco más de 2.5GB que debes descargar.

[oracle@lab2 app]$ curl -o oracle-database-preinstall-19c-1.0-1.el7.x86_64.rpm \
https://yum.oracle.com/repo/OracleLinux/OL7/latest/x86_64/getPackage/oracle-database-preinstall-19c-1.0-1.el7.x86_64.rpm
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100 18204  100 18204    0     0  16915      0  0:00:01  0:00:01 --:--:-- 16997

[oracle@lab2 app]$ ls -la
total 2631512
drwxr-xr-x. 3 oracle oinstall         67 Apr 28 07:12 .
drwxr-xr-x. 6 root   root             76 Apr 13 19:43 ..
drwxr-xr-x. 3 oracle oinstall         36 Apr 28 06:59 oracle
-rwxr-x---. 1 oracle oinstall 2694664264 Apr 27 16:31 oracle-database-ee-19c-1.0-1.x86_64.rpm

También, para estar completamente seguros, que nuestro sistema cuenta con todo lo necesario para instalar la versión de base de datos, podemos descargar el paquete de validación de pre-requisitos y configuración del ambiente.

A continuación encontrarás como hacer esto.

Para bajar paquete de validación de prerequesitos.

curl -o oracle-database-preinstall-19c-1.0-1.el7.x86_64.rpm https://yum.oracle.com/repo/OracleLinux/OL7/latest/x86_64/getPackage/oracle-database-preinstall-19c-1.0-1.el7.x86_64.rpm

Una vez descargado el paquete, puedes hacer la instalación de la siguiente manera:
yum -y localinstall oracle-database-preinstall-19c-1.0-1.el7.x86_64.rpm

Si no se presentan problemas con la ejecución del pre-instalador de la base de datos, podemos continuar con la instalación del software del motor.

[oracle@lab2 app]$ yum -y localinstall oracle-database-ee-19c-1.0-1.x86_64.rpm
Loaded plugins: langpacks, ulninfo
You need to be root to perform this command.
[oracle@lab2 app]$

Este proceso puede tomar unos 40 minutos apróximadamente.

Una vez concluído, podemos continuar con la creación de un contenedor para bases de datos y una base de datos acoplada.

Base de datos de ejemplo con CDB y PDB
Proceso de creación de:
Una base de datos de prueba llamada "ORCLCDB", con una pluggable database (PDB) con el nombre "ORCLPDB1"


# /etc/init.d/oracledb_ORCLCDB-19c configure

Otra manera de crear el contenedor y la base de datos PDB, es llamar al DBCA y configurar desde ahí lo requerido.

Nota: La instalación del motor de base de datos, requiere a diferencia de las instalaciones con despliegue de archivo comprimido, que el usuario que haga la instalación sea ROOT.

Si intentas hacer la instalación con el usuario "oracle", recibirás el siguiente mensaje:

[oracle@lab2 app]$ yum -y localinstall oracle-database-ee-19c-1.0-1.x86_64.rpm
Loaded plugins: langpacks, ulninfo
You need to be root to perform this command.
[oracle@lab2 app]$

Buena suerte amigos y amigas, ya están listos para empezar a utilizar Oracle Database 19c.

Oracle Database: Restricciones de particionamiento para múltiples tamaños de bloque


Aplica para 12c, 18c, 19c, 20c

Hay que tener cuidado a la hora de crear objetos particionados en una base de datos con TABLESPACES de diferentes tamaños de bloque. 

El almacenamiento de objetos particionados en los TABLESPACES está sujeto a algunas restricciones. Específicamente, todas las particiones de las siguientes entidades deben residir en un TABLESPACE del mismo tamaño de bloque: 
· tablas convencionales
· Índices
· Segmentos de índice de PK de tablas organizadas por índice
· Segmentos de desbordamiento de tablas organizadas por índice
· Columnas LOB almacenadas fuera de línea 
Por lo tanto: 
  • Para cada tabla convencional, todas las particiones de esa tabla deben almacenarse en tablespaces con el mismo tamaño de bloque. 
  • Para cada tabla organizada por índice, todas las particiones de índice de clave principal deben residir en espacios de tabla del mismo tamaño de bloque y todas las particiones de desbordamiento de esa tabla deben residir en tablespaces del mismo tamaño de bloque. Sin embargo, las particiones de índice y las particiones de desbordamiento pueden residir en tablespaces de diferentes tamaños de bloque. 
  • Para cada índice (global o local), cada partición de ese índice debe residir en TABLESPACES del mismo tamaño de bloque. Sin embargo, las particiones de diferentes índices definidos en el mismo objeto pueden residir en TABLESPACES de diferentes tamaños de bloque. 
  • Para cada columna LOB, cada partición de esa columna debe almacenarse en un TABLESPACES de igual tamaño de bloque. Sin embargo, se pueden almacenar diferentes columnas LOB en TABLESPACES de diferentes tamaños de bloque. 
  • Cuando crea o modifica una tabla o índice particionado, todos los TABLESPACES que especifique explícitamente para las particiones y subparticiones de cada entidad deben ser del mismo tamaño de bloque. 
  • Si no especifica explícitamente el almacenamiento de espacios de tablas para una entidad, los TABLESPACES que usa la base de datos de manera predeterminada deben ser del mismo tamaño de bloque. Por lo tanto, debe conocer los TABLESPACES predeterminados en cada nivel del objeto particionado.
Tenga en cuenta estas restricciones a la hora de crear tablas particionadas.

La documentación oficial de cada versión, la puede encontrar en los siguientes links:





Este post podría llamarse "Un gran desperdicio de espacio" o "Casi siempre, nada es lo que parece" Oracle Database SE2 HA en 19c y 20c


Hola gente, disculpen que los dejé algo solos durante unos días. Ya estamos nuevamente por acá y el motivo de "mi visita", es que recientemente se dió a conocer un cambio de lineamiento con respecto al tema de "Alta Disponibilidad" en base de datos Oracle 19c Standard Edition.

Recordaran en mi webinar, que una de las sorpresas que tuvimos el año anterior, es que la versión más popular de la base de datos Oracle, la versión Standard Edition, no soporta más RAC en 19c.

La semana anterior, con el anuncio de la versión 20c, se dió a conocer, que la versión Standard Edition de este release, "si soportará HA (*) y que más adelante en este año, la versión 19c, como producto de un RU ( Release Update ), también lo hará."

Han visto que puse un " * ", por ahí, verdad?

Bueno, el tema es el siguiente:

"Oracle 20c y 19c Standard Edition, van a tener soporte para HA ( RAC ), con la limitación, de que en conjunto, los dos nodos que pueden formar parte de un RAC en Standard Edition, no pueden utilizar más de 16 hilos por configuración."

O sea, máximo 8 hilos por cada nodo. !!!

A nivel de "escalabilidad", es un absurdo pensar en una base de datos productiva, de mediano tamaño, con esa cantidad de recursos de CPU.

Recuerden que un hilo o en inglés Thread, es la parte más pequeña de un Core a nivel de CPU.

Los CPU, se pueden componer de múltiples Cores y los Cores a su vez, pueden tener múltiples hilos.

Por ejemplo, para ponerlo en dimensiones, el nuevo SUN Sparc T8-1 tiene un CPU con 32 cores y cada core tiene 8 hilos para un total de 256 hilos de procesamiento.

Se imaginan un RAC con dos equipos de este tipo, utilizando un sólo Core por cada "tarro"?

Sería como dijo un admirado y "viejo amigo", un gran desperdicio de espacio.


jueves, 13 de febrero de 2020

Oracle Linux: Desfragmentar un sistema de archivos XFS

Una de las primeras cosas que hacíamos hace ya bastante años atrás, era el proceso de realizar una desfragmentación sobre los discos duros de nuestras computadoras.

Algunos, los valíamos de software "especializado" como Norton Disk Doctor u otros.

La biblioteca de conocimiento popular Wikipedia, define la fragmentación de la siguiente manera:
"La desfragmentación es el proceso conveniente mediante el cual se acomodan los archivos en un disco para que no se aprecien fragmentos de cada uno de ellos, de tal manera que quede contiguo el archivo y sin espacios dentro del mismo. Al irse escribiendo y borrando archivos continuamente en el disco duro, los fragmentos tienden a no quedar en áreas continuas, así, un archivo puede quedar "partido" en muchos pedazos a lo largo del disco, se dice entonces que el archivo está "fragmentado".
Al tener fragmentos de incluso un archivo esparcidos por el disco, se vuelve ineficiente el acceso a los archivos.
Los fragmentos de uno o varios archivos es lo que hace factible la desfragmentación.
El problema de almacenamiento no contiguo de los archivos se denomina fragmentación, es conveniente desfragmentar el almacenamiento de los archivos en dispositivos de almacenamiento electromecánicos por el uso del computador. (Los SSD no son mecánicos)."
En el caso de Oracle Linux podemos usar el comando xfs_fsr para desfragmentar sistemas de archivos XFS completos o archivos individuales dentro de un sistema de archivos XFS.

Como XFS es un sistema de archivos basado en la extensión, generalmente no es necesario desfragmentar un sistema de archivos completo, y no se recomienda hacerlo.

Si ejecuta el comando xfs_fsr sin ninguna opción, el comando desfragmenta todos los sistemas de archivos XFS grabables y actualmente montados que se enumeran en /etc/mtab.

Durante un período de dos horas, el comando pasa por cada sistema de archivos a su vez, intentando desfragmentar el diez por ciento superior de los archivos que tienen la mayor cantidad de extensiones. Después de dos horas, el comando registra su progreso en el archivo /var/tmp/.fsrlast_xfs, y se reanuda desde ese punto si ejecuta el comando nuevamente.

Con el comando xfs_db -r -c "frag -f" se puede evaluar los cambios realizados sobre el nivel de desfragmentación en el sistema de archivos.

Nota: Existen múltiples bugs registrados en MOS, asociados al emplear este comando sobre sistemas de archivos en donde existen archivos de datos repositorios de TABLESPACES, de una base de datos Oracle. Mi recomendación es, evaluar el nivel de fragmentación y si esta es lo suficiente significativa como para realizar esta tarea de mantenimiento, se debe crear una ventana de tiempo, bajar la base de datos y proceder a ejecutar la tarea.

[root@Lab1BD]# df -h
Filesystem                       Size  Used Avail Use% Mounted on
devtmpfs                         2.8G     0  2.8G   0% /dev
tmpfs                            2.8G   36K  2.8G   1% /dev/shm
tmpfs                            2.8G   57M  2.8G   2% /run
tmpfs                            2.8G     0  2.8G   0% /sys/fs/cgroup
/dev/mapper/ol_lab1bd-root   50G   12G   39G  23% /
/dev/sda1                       1014M  169M  846M  17% /boot
/dev/mapper/ol_lab1bd-home  2.1T  639G  1.5T  31% /home
tmpfs                            571M     0  571M   0% /run/user/0
tmpfs                            571M     0  571M   0% /run/user/54321

[root@Lab1BD]# xfs_db -r -c "frag -f" /dev/mapper/ol_lab1bd-home
actual 71329, ideal 4587, fragmentation factor 93.57%
Note, this number is largely meaningless.
Files on this filesystem average 15.55 extents per file

[root@Lab1BD]# xfs_fsr -v /dev/mapper/ol_lab1bd-home
/home start inode=0
ino=174
extents before:11889 after:1 DONE ino=174
ino=186
extents before:17 after:2      ino=186
ino=187
extents before:6 after:1 DONE ino=187
ino=172
extents before:5 after:1 DONE ino=172
ino=188
extents before:5 after:1 DONE ino=188
ino=189
extents before:5 after:1 DONE ino=189
ino=182
extents before:3 after:1 DONE ino=182
ino=144
extents before:2 after:1 DONE ino=144
ino=149
extents before:2 after:1 DONE ino=149
ino=4810
extents before:624 after:1 DONE ino=4810
ino=4789
extents before:40 after:3      ino=4789
ino=4797
extents before:38 after:3      ino=4797
ino=4793
extents before:37 after:2      ino=4793
ino=4796
extents before:37 after:1 DONE ino=4796
ino=4799
extents before:38 after:2      ino=4799
ino=4801
extents before:36 after:2      ino=4801
ino=4802
extents before:36 after:2      ino=4802
ino=4792
extents before:35 after:1 DONE ino=4792
ino=4794
extents before:34 after:2      ino=4794
ino=4795

[root@Lab1BD]# xfs_db -r -c "frag -f" /dev/mapper/ol_Lab1bd-home

actual 58883, ideal 4588, fragmentation factor 92.21%
Note, this number is largely meaningless.
Files on this filesystem average 12.83 extents per file

[root@Lab1BD]#

Oracle Announces Oracle Cloud Data Science Platform


Press Release

New service makes it quick and easy for data science teams to collaboratively build and deploy powerful machine learning models

REDWOOD SHORES, Calif.—Feb 12, 2020
________________________________________

Oracle today announced the availability of the Oracle Cloud Data Science Platform. At the core is Oracle Cloud Infrastructure Data Science, helping enterprises to collaboratively build, train, manage and deploy machine learning models to increase the success of data science projects. Unlike other data science products that focus on individual data scientists, Oracle Cloud Infrastructure Data Science helps improve the effectiveness of data science teams with capabilities like shared projects, model catalogs, team security policies, reproducibility and auditability. Oracle Cloud Infrastructure Data Science automatically selects the most optimal training datasets through AutoML algorithm selection and tuning, model evaluation and model explanation.

Today, organizations realize only a fraction of the enormous transformational potential of data because data science teams don’t have easy access to the right data and tools to build and deploy effective machine learning models. The net result is that models take too long to develop, don’t always meet enterprise requirements for accuracy and robustness and too frequently never make it into production.

“Effective machine learning models are the foundation of successful data science projects, but the volume and variety of data facing enterprises can stall these initiatives before they ever get off the ground,” said Greg Pavlik, senior vice president product development, Oracle Data and AI Services. “With Oracle Cloud Infrastructure Data Science, we’re improving the productivity of individual data scientists by automating their entire workflow and adding strong team support for collaboration to help ensure that data science projects deliver real value to businesses.”

Designed for Data Science Teams and Scientists

Oracle Cloud Infrastructure Data Science includes automated data science workflow, saving time and reducing errors with the following capabilities:
• AutoML automated algorithm selection and tuning automates the process of running tests against multiple algorithms and hyperparameter configurations. It checks results for accuracy and confirms that the optimal model and configuration is selected for use. This saves significant time for data scientists and, more importantly, is designed to allow every data scientist to achieve the same results as the most experienced practitioners.
• Automated predictive feature selection simplifies feature engineering by automatically identifying key predictive features from larger datasets.
• Model evaluation generates a comprehensive suite of evaluation metrics and suitable visualizations to measure model performance against new data and can rank models over time to enable optimal behavior in production. Model evaluation goes beyond raw performance to take into account expected baseline behavior and uses a cost model so that the different impacts of false positives and false negatives can be fully incorporated.
• Model explanation: Oracle Cloud Infrastructure Data Science provides automated explanation of the relative weighting and importance of the factors that go into generating a prediction. Oracle Cloud Infrastructure Data Science offers the first commercial implementation of model-agnostic explanation. With a fraud detection model, for example, a data scientist can explain which factors are the biggest drivers of fraud so the business can modify processes or implement safeguards.
Getting effective machine learning models successfully into production needs more than just dedicated individuals. It requires teams of data scientists working together collaboratively. Oracle Cloud Infrastructure Data Science delivers powerful team capabilities including:
• Shared projects help users organize, enable version control and reliably share a team’s work including data and notebook sessions.
• Model catalogs enable team members to reliably share already-built models and the artifacts necessary to modify and deploy them.
• Team-based security policies allow users to control access to models, code and data, which are fully integrated with Oracle Cloud Infrastructure Identity and Access Management.
• Reproducibility and auditability functionalities enable the enterprise to keep track of all relevant assets, so that all models can be reproduced and audited, even if team members leave.
With Oracle Cloud Infrastructure Data Science, organizations can accelerate successful model deployment and produce enterprise-grade results and performance for predictive analytics to drive positive business outcomes.

Comprehensive Data and Machine Learning Services

The Oracle Cloud Data Science Platform includes seven new services that deliver a comprehensive end-to-end experience designed to accelerate and improve data science results:
• Oracle Cloud Infrastructure Data Science: Enables users to build, train and manage new machine learning models on Oracle Clou using Python and other open-source tools and libraries including TensorFlow, Keras and Jupyter.
• Powerful New Machine Learning Capabilities in Oracle Autonomous Database: Machine learning algorithms are tightly integrated in Oracle Autonomous Database with new support for Python and automated machine learning. Upcoming integration with Oracle Cloud Infrastructure Data Science will enable data scientists to develop models using both open source and scalable in-database algorithms. Uniquely, bringing algorithms to the data in Oracle Database speeds time to results by reducing data preparation and movement.
• Oracle Cloud Infrastructure Data Catalog: Allows users to discover, find, organize, enrich and trace data assets on Oracle Cloud. Oracle Cloud Infrastructure Data Catalog has a built-in business glossary making it easy to curate and discover the right, trusted data.
• Oracle Big Data Service: Offers a full Cloudera Hadoop implementation, with dramatically simpler management than other Hadoop offerings, including just one click to make a cluster highly available and to implement security. Oracle Big Data Service also includes machine learning for Spark allowing organizations to run Spark machine learning in memory with one product and with minimal data movement.
• Oracle Cloud SQL: Enables SQL queries on data in HDFS, Hive, Kafka, NoSQL and Object Storage. Only CloudSQL enables any user, application or analytics tool that can talk to Oracle databases to transparently work with data in other data stores, with the benefit of push-down, scale-out processing to minimize data movement.
• Oracle Cloud Infrastructure Data Flow: A fully-managed Big Data service that allows users to run Apache Spark applications with no infrastructure to deploy or manage. It enables enterprises to deliver Big Data and AI applications faster. Unlike competing Hadoop and Spark services, Oracle Cloud Infrastructure Data Flow includes a single window to track all Spark jobs making it simple to identify expensive tasks or troubleshoot problems.
• Oracle Cloud Infrastructure Virtual Machines for Data Science: Preconfigured GPU-based environments with common IDEs, notebooks and frameworks that can be up and running in under 15 minutes, for $30 a day.
What Customers Are Saying

AgroScout is dedicated to detecting early stage crop diseases to improve crop yields, reduce pesticide use and increase profits. “Our vision is to make modern agronomy economically accessible to the 1 billion farmers working on 500 million farms worldwide, constituting 30 percent of the global workforce. We plan to achieve this by offering cloud based, AI-driven sustainable agronomy, relying purely on input from low cost drones, mobile phones and manual inputs by growers,” said Simcha Shore, Founder and CEO AgroScout. “Success of this vision relies on the ability to manage a continuous and increasing flow of input data and our own AI-based solution to transform that data into precision and decision agriculture, at scale. Speed, scale and agility of Oracle Cloud has helped us realize our dream. Now, new horizons have opened up with the recent addition of Oracle Cloud Infrastructure Data Science that improves our data scientists’ ability to collaboratively build, train and deploy machine learning models. This addition has reduced costs, increased efficiency and has helped us increase our global footprint faster.”

IDenTV provides advanced video analytics based on AI capabilities powered by computer vision, automated speech recognition and textual semantic classifiers. “With Oracle Cloud Infrastructure Data Science, we are able to scale our data science efforts to deliver business value faster than ever before. Our data science teams can now seamlessly access data without worrying about the complexities of data locations or access mechanisms. While using open-source capabilities like TensorFlow, Keras, and Jupyter notebooks embedded within the environment, we can streamline our model training and deployment tasks resulting in tremendous cost savings and faster results,” said Amro Shihadah, Founder and COO, IDenTV. “We feel that Oracle Cloud Infrastructure Data Science in conjunction with benefits of Autonomous Database will give us the edge we need to be competitive and unique in the market.”
________________________________________

Contact Info
Nicole Maloney
Oracle
+1.650.506.0806
nicole.maloney@oracle.com
Victoria Brown
Oracle
+1.650.850.2009
victoria.brown@oracle.com

________________________________________


Optimismo para una vida Mejor

Optimismo para una vida Mejor
Noticias buenas que comentar