Ignora esplorazione

US Producer Price Index - Industry

labor statistics ppi industry

Il Producer Price Index (PPI), ovvero l’indice dei prezzi alla produzione, è un indicatore della variazione media nel tempo dei prezzi di vendita ricevuti dai produttori nazionali per i beni prodotti. I prezzi inclusi nel PPI corrispondono ai prezzi della prima transazione commerciale per i prodotti e servizi compresi nel paniere.

Gli indici Producer Price Index Revision-Current Series riflettono le variazioni dei prezzi per la produzione netta dei produttori organizzati in base al sistema NAICS (North American Industry Classification System). Il set di dati PC è compatibile con un’ampia gamma di serie temporali economiche basate sul sistema NAICS, tra cui produttività, produzione, impiego, retribuzioni orarie e ricavi.

Il paniere PPI è composto dalla produzione di tutti i settori di produzione di beni dell’economia statunitense, ad esempio settore minerario, manifatturiero, agricoltura, pesca e silvicoltura, nonché gas naturale, elettricità, edilizia e beni competitivi con quelli realizzati nei settori della produzione, ad esempio rifiuti e scarti. Inoltre, al mese di gennaio 2011, il programma PPI copriva più di tre quarti della produzione del settore dei servizi, pubblicando i dati per i settori selezionati seguenti: commercio all’ingrosso e al dettaglio, trasporto e stoccaggio, informazioni, finanza e assicurazioni, leasing, affitto e intermediazione immobiliare, servizi professionali, scientifici e tecnici, servizi di amministrazione, assistenza e gestione dei rifiuti, assistenza sanitaria e sociale, ospitalità.

Il file LEGGIMI contenente informazioni dettagliate su questo set di dati è disponibile nella posizione del set di dati originale. Per altre informazioni, vedi le domande frequenti.

Il set di dati è generato dai dati del Producer Price Index pubblicati da US Bureau of Labor Statistics (BLS). Per informazioni sui termini e sulle condizioni per l’utilizzo di questo set di dati, vedi le informazioni sui collegamenti e sul copyright e le informative importanti sul sito Web.

Posizione di archiviazione

Questo set di dati è archiviato nell’area Stati Uniti orientali di Azure. L’allocazione delle risorse di calcolo nell’area Stati Uniti orientali è consigliata per motivi di affinità.

Set di dati correlati

Notifiche

MICROSOFT FORNISCE I SET DI DATI APERTI DI AZURE “COSÌ COME SONO”. MICROSOFT NON OFFRE ALCUNA GARANZIA O CONDIZIONE ESPLICITA O IMPLICITA RELATIVAMENTE ALL’USO DEI SET DI DATI DA PARTE DELL’UTENTE. NELLA MISURA MASSIMA CONSENTITA DALLE LEGGI LOCALI, MICROSOFT NON RICONOSCE ALCUNA RESPONSABILITÀ RELATIVAMENTE A DANNI O PERDITE COMMERCIALI, INCLUSI I DANNI DIRETTI, CONSEQUENZIALI, SPECIALI, INDIRETTI, INCIDENTALI O PUNITIVI DERIVANTI DALL’USO DEI SET DI DATI DA PARTE DELL’UTENTE.

Questo set di dati viene fornito in conformità con le condizioni originali in base alle quali Microsoft ha ricevuto i dati di origine. Il set di dati potrebbe includere dati provenienti da Microsoft.

Access

Available inWhen to use
Azure Notebooks

Quickly explore the dataset with Jupyter notebooks hosted on Azure or your local machine.

Azure Databricks

Use this when you need the scale of an Azure managed Spark cluster to process the dataset.

Azure Synapse

Use this when you need the scale of an Azure managed Spark cluster to process the dataset.

Preview

product_code industry_code series_id year period value footnote_codes seasonal series_title industry_name product_name
2123240 212324 PCU2123242123240 1998 M01 117 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M02 116.9 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M03 116.3 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M04 116 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M05 116.2 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M06 116.3 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M07 116.6 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M08 116.3 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M09 116.2 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M10 115.9 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
Name Data type Unique Values (sample) Description
footnote_codes string 3 nan
P

Identifica le note a piè di pagina per la serie temporale. La maggior parte dei valori è Null. Vedere https://download.bls.gov/pub/time.series/pc/pc.footnote.

industry_code string 1,064 221122
325412

Codice NAICS per il settore. Vedi https://download.bls.gov/pub/time.series/pc/pc.industry per informazioni sui codici e sui nomi.

industry_name string 842 Electric power distribution
Pharmaceutical preparation manufacturing

Nome corrispondente al codice per il settore. Vedi https://download.bls.gov/pub/time.series/pc/pc.industry per informazioni sui codici e sui nomi.

period string 13 M06
M07

Identifica il periodo dell’osservazione dei dati. Vedi https://download.bls.gov/pub/time.series/pc/pc.period per l’elenco completo.

product_code string 4,822 325212P
22112241

Codice che identifica il prodotto a cui fa riferimento l’osservazione dei dati. Vedi https://download.bls.gov/pub/time.series/pc/pc.product per il mapping di codici del settore, codici di prodotto e nomi di prodotto.

product_name string 3,313 Primary products
Secondary products

Nome del prodotto a cui fa riferimento l’osservazione dei dati. Vedi https://download.bls.gov/pub/time.series/pc/pc.product per il mapping di codici del settore, codici di prodotto e nomi di prodotto.

seasonal string 1 U

Codice che identifica se i dati vengono modificati in base alla stagione. S= con modifica stagionale; U= senza modifica stagionale

series_id string 4,822 PCU3331313331319
PCU339993339993P

Codice che identifica le serie specifiche. Una serie temporale fa riferimento a un set di dati osservato per un periodo esteso di tempo in intervalli di tempo coerenti. Vedi https://download.bls.gov/pub/time.series/pc/pc.series per informazioni dettagliate sulla serie, ad esempio codice, nome, anno di inizio e fine e così via.

series_title string 4,588 PPI industry data for Electric power distribution-East North Central, not seasonally adjusted
PPI industry data for Electric power distribution-New England, not seasonally adjusted
value float 7,658 100.0
100.4000015258789

Indice di prezzo per l’elemento.

year int 22 2015
2017

Identifica l’anno dell’osservazione.

Select your preferred service:

Azure Notebooks

Azure Databricks

Azure Synapse

Azure Notebooks

Package: Language: Python Python
In [1]:
# This is a package in preview.
from azureml.opendatasets import UsLaborPPIIndustry

labor = UsLaborPPIIndustry()
labor_df = labor.to_pandas_dataframe()
ActivityStarted, to_pandas_dataframe
ActivityStarted, to_pandas_dataframe_in_worker
Looking for parquet files...
Reading them into Pandas dataframe...
Reading ppi_industry/part-00000-tid-1761562550540733469-da319923-1af6-4884-a5f4-16397508d15f-4596-1-c000.snappy.parquet under container laborstatisticscontainer
Done.
ActivityCompleted: Activity=to_pandas_dataframe_in_worker, HowEnded=Success, Duration=7978.44 [ms]
ActivityCompleted: Activity=to_pandas_dataframe, HowEnded=Success, Duration=8014.64 [ms]
In [2]:
labor_df.info()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 948634 entries, 0 to 948633
Data columns (total 11 columns):
product_code      948634 non-null object
industry_code     948634 non-null object
series_id         948634 non-null object
year              948634 non-null int32
period            948634 non-null object
value             948634 non-null float32
footnote_codes    948634 non-null object
seasonal          948634 non-null object
series_title      948634 non-null object
industry_name     948634 non-null object
product_name      948634 non-null object
dtypes: float32(1), int32(1), object(9)
memory usage: 72.4+ MB
In [1]:
# Pip install packages
import os, sys

!{sys.executable} -m pip install azure-storage-blob
!{sys.executable} -m pip install pyarrow
!{sys.executable} -m pip install pandas
In [2]:
# Azure storage access info
azure_storage_account_name = "azureopendatastorage"
azure_storage_sas_token = r""
container_name = "laborstatisticscontainer"
folder_name = "ppi_industry/"
In [3]:
from azure.storage.blob import BlockBlobServicefrom azure.storage.blob import BlobServiceClient, BlobClient, ContainerClient

if azure_storage_account_name is None or azure_storage_sas_token is None:
    raise Exception(
        "Provide your specific name and key for your Azure Storage account--see the Prerequisites section earlier.")

print('Looking for the first parquet under the folder ' +
      folder_name + ' in container "' + container_name + '"...')
container_url = f"https://{azure_storage_account_name}.blob.core.windows.net/"
blob_service_client = BlobServiceClient(
    container_url, azure_storage_sas_token if azure_storage_sas_token else None)

container_client = blob_service_client.get_container_client(container_name)
blobs = container_client.list_blobs(folder_name)
sorted_blobs = sorted(list(blobs), key=lambda e: e.name, reverse=True)
targetBlobName = ''
for blob in sorted_blobs:
    if blob.name.startswith(folder_name) and blob.name.endswith('.parquet'):
        targetBlobName = blob.name
        break

print('Target blob to download: ' + targetBlobName)
_, filename = os.path.split(targetBlobName)
blob_client = container_client.get_blob_client(targetBlobName)
with open(filename, 'wb') as local_file:
    blob_client.download_blob().download_to_stream(local_file)
In [4]:
# Read the parquet file into Pandas data frame
import pandas as pd

print('Reading the parquet file into Pandas data frame')
df = pd.read_parquet(filename)
In [5]:
# you can add your filter at below
print('Loaded as a Pandas data frame: ')
df
In [6]:
 

Azure Databricks

Package: Language: Python Python
In [1]:
# This is a package in preview.
from azureml.opendatasets import UsLaborPPIIndustry

labor = UsLaborPPIIndustry()
labor_df = labor.to_spark_dataframe()
ActivityStarted, to_spark_dataframe ActivityStarted, to_spark_dataframe_in_worker ActivityCompleted: Activity=to_spark_dataframe_in_worker, HowEnded=Success, Duration=2665.84 [ms] ActivityCompleted: Activity=to_spark_dataframe, HowEnded=Success, Duration=2668.22 [ms]
In [2]:
display(labor_df.limit(5))
product_codeindustry_codeseries_idyearperiodvaluefootnote_codesseasonalseries_titleindustry_nameproduct_name
2123240212324PCU2123242123240 1998M01117.0nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
2123240212324PCU2123242123240 1998M02116.9nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
2123240212324PCU2123242123240 1998M03116.3nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
2123240212324PCU2123242123240 1998M04116.0nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
2123240212324PCU2123242123240 1998M05116.2nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
In [1]:
# Azure storage access info
blob_account_name = "azureopendatastorage"
blob_container_name = "laborstatisticscontainer"
blob_relative_path = "ppi_industry/"
blob_sas_token = r""
In [2]:
# Allow SPARK to read from Blob remotely
wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path)
spark.conf.set(
  'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name),
  blob_sas_token)
print('Remote blob path: ' + wasbs_path)
In [3]:
# SPARK read parquet, note that it won't load any data yet by now
df = spark.read.parquet(wasbs_path)
print('Register the DataFrame as a SQL temporary view: source')
df.createOrReplaceTempView('source')
In [4]:
# Display top 10 rows
print('Displaying top 10 rows: ')
display(spark.sql('SELECT * FROM source LIMIT 10'))

Azure Synapse

Package: Language: Python
In [1]:
# Azure storage access info
blob_account_name = "azureopendatastorage"
blob_container_name = "laborstatisticscontainer"
blob_relative_path = "ppi_industry/"
blob_sas_token = r""
In [2]:
# Allow SPARK to read from Blob remotely
wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path)
spark.conf.set(
  'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name),
  blob_sas_token)
print('Remote blob path: ' + wasbs_path)
In [3]:
# SPARK read parquet, note that it won't load any data yet by now
df = spark.read.parquet(wasbs_path)
print('Register the DataFrame as a SQL temporary view: source')
df.createOrReplaceTempView('source')
In [4]:
# Display top 10 rows
print('Displaying top 10 rows: ')
display(spark.sql('SELECT * FROM source LIMIT 10'))