Passer la navigation

US Producer Price Index - Industry

labor statistics ppi industry

L’indice des prix à la production (IPP) est une mesure de la variation moyenne dans le temps des prix de vente perçus par les producteurs nationaux pour leur production. Les prix inclus dans l’IPP sont ceux de la première transaction commerciale pour les produits et services couverts.

Les indices de la série actuelle de la révision de l’Indice des prix à la production reflètent les mouvements de prix de la production nette des producteurs organisés selon le système NAICS (North American Industry Classification System). Le jeu de données PC est compatible avec un large éventail de séries chronologiques économiques basées sur le NAICS, notamment : productivité, production, emploi, salaires et gains.

L’Indice des prix à la production aux États-Unis est constitué par la production de toutes les industries des secteurs producteurs de biens de l’économie américaine (industries extractives, industries manufacturières, agriculture, pêche et foresterie) ainsi que le gaz naturel, l’électricité, la construction et les biens concurrents avec ceux fabriqués dans les secteurs de production, tels que les déchets et les mises au rebut. En outre, à compter de janvier 2011, l’Indice des prix à la production couvrait plus des trois quarts de la production du secteur des services, en publiant des données pour certaines industries des secteurs suivants : commerce de gros et de détail ; transport et entreposage ; information ; finances et assurances ; courtage immobilier, location et crédit-bail ; services professionnels, scientifiques et techniques ; services administratifs, de soutien et de gestion des déchets ; soins de santé et assistance sociale ; et hébergement.

Le fichier README contenant des informations détaillées sur ce jeu de données est disponible à l’emplacement d’origine du jeu de données. Des informations supplémentaires sont disponibles dans les FAQ.

Ce jeu de données est produit à partir des données d’indice de prix producteur publiées par le US Bureau of Labor Statistics (BLS). Consultez les informations de liaison et de copyright et les avis importants de site web pour connaître les conditions générales relatives à l’utilisation de ce jeu de données.

Emplacement de stockage

Ce jeu de données est stocké dans la région Azure USA Est. L’allocation de ressources de calcul dans la région USA Est est recommandée à des fins d’affinité.

Jeux de données associés

Remarques

MICROSOFT FOURNIT AZURE OPEN DATASETS “EN L’ÉTAT”. MICROSOFT N’OFFRE AUCUNE GARANTIE, EXPRESSE OU IMPLICITE, DE GARANTIE NI DE CONDITIONS RELATIVES À VOTRE UTILISATION DES JEUX DE DONNÉES. DANS LA MESURE AUTORISÉE PAR VOTRE DROIT LOCAL, MICROSOFT DÉCLINE TOUTE RESPONSABILITÉ POUR TOUT DOMMAGE OU PERTES, Y COMPRIS LES DIRECTIVES, CONSEQUENTIELLES, SPÉCIALES, INDIRECTES OU PUNITIVES, RÉSULTANT DE VOTRE UTILISATION DES JEUX DE DONNÉES.

Ce jeu de données est fourni selon les conditions initiales par lesquelles Microsoft a reçu les données sources. Le jeu de données peut inclure des données provenant de Microsoft.

Access

Available inWhen to use
Azure Notebooks

Quickly explore the dataset with Jupyter notebooks hosted on Azure or your local machine.

Azure Databricks

Use this when you need the scale of an Azure managed Spark cluster to process the dataset.

Azure Synapse

Use this when you need the scale of an Azure managed Spark cluster to process the dataset.

Preview

product_code industry_code series_id year period value footnote_codes seasonal series_title industry_name product_name
2123240 212324 PCU2123242123240 1998 M01 117 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M02 116.9 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M03 116.3 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M04 116 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M05 116.2 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M06 116.3 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M07 116.6 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M08 116.3 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M09 116.2 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M10 115.9 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
Name Data type Unique Values (sample) Description
footnote_codes string 3 nan
P

Identifie les notes de bas de page pour la série de données. La plupart des valeurs sont Null. Consultez https://download.bls.gov/pub/time.series/pc/pc.footnote.

industry_code string 1,064 221122
325412

Code NAICS pour le secteur. Voir https://download.bls.gov/pub/time.series/pc/pc.industry pour les codes et les noms.

industry_name string 842 Electric power distribution
Pharmaceutical preparation manufacturing

Nom correspondant au code de l’industrie. Voir https://download.bls.gov/pub/time.series/pc/pc.industry pour les codes et les noms.

period string 13 M06
M07

Identifie la période pendant laquelle les données sont observées. Voir https://download.bls.gov/pub/time.series/pc/pc.period pour la liste complète.

product_code string 4,822 339113
325910

Code identifiant le produit auquel l’observation des données fait référence. Voir https://download.bls.gov/pub/time.series/pc/pc.product pour le mappage des codes d’activité, codes de produits et noms de produits.

product_name string 3,313 Primary products
Secondary products

Nom du produit auquel l’observation des données fait référence. Voir https://download.bls.gov/pub/time.series/pc/pc.product pour le mappage des codes d’activité, codes de produits et noms de produits.

seasonal string 1 U

Code identifiant si les données sont corrigées en fonction des variations saisonnières. S=Corrigées en fonction des variations saisonnières ; U=Non corrigées

series_id string 4,822 PCU3261503261504
PCU5413--5413--

Code identifiant les séries spécifiques. Une série chronologique fait référence à un jeu contenant des données observées sur une période étendue sur des intervalles cohérents. Voir https://download.bls.gov/pub/time.series/pc/pc.series pour des informations sur les séries telles que le code, le nom, l’année de début et de fin, etc.

series_title string 4,588 PPI industry data for Electric power distribution-Pacific, not seasonally adjusted
PPI industry data for Electric power distribution-East North Central, not seasonally adjusted
value float 7,658 100.0
100.4000015258789

Indice des prix pour l’élément.

year int 22 2015
2017

Identifie l’année d’observation.

Select your preferred service:

Azure Notebooks

Azure Databricks

Azure Synapse

Azure Notebooks

Package: Language: Python Python
In [1]:
# This is a package in preview.
from azureml.opendatasets import UsLaborPPIIndustry

labor = UsLaborPPIIndustry()
labor_df = labor.to_pandas_dataframe()
ActivityStarted, to_pandas_dataframe
ActivityStarted, to_pandas_dataframe_in_worker
Looking for parquet files...
Reading them into Pandas dataframe...
Reading ppi_industry/part-00000-tid-1761562550540733469-da319923-1af6-4884-a5f4-16397508d15f-4596-1-c000.snappy.parquet under container laborstatisticscontainer
Done.
ActivityCompleted: Activity=to_pandas_dataframe_in_worker, HowEnded=Success, Duration=7978.44 [ms]
ActivityCompleted: Activity=to_pandas_dataframe, HowEnded=Success, Duration=8014.64 [ms]
In [2]:
labor_df.info()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 948634 entries, 0 to 948633
Data columns (total 11 columns):
product_code      948634 non-null object
industry_code     948634 non-null object
series_id         948634 non-null object
year              948634 non-null int32
period            948634 non-null object
value             948634 non-null float32
footnote_codes    948634 non-null object
seasonal          948634 non-null object
series_title      948634 non-null object
industry_name     948634 non-null object
product_name      948634 non-null object
dtypes: float32(1), int32(1), object(9)
memory usage: 72.4+ MB
In [1]:
# Pip install packages
import os, sys

!{sys.executable} -m pip install azure-storage-blob
!{sys.executable} -m pip install pyarrow
!{sys.executable} -m pip install pandas
In [2]:
# Azure storage access info
azure_storage_account_name = "azureopendatastorage"
azure_storage_sas_token = r""
container_name = "laborstatisticscontainer"
folder_name = "ppi_industry/"
In [3]:
from azure.storage.blob import BlockBlobServicefrom azure.storage.blob import BlobServiceClient, BlobClient, ContainerClient

if azure_storage_account_name is None or azure_storage_sas_token is None:
    raise Exception(
        "Provide your specific name and key for your Azure Storage account--see the Prerequisites section earlier.")

print('Looking for the first parquet under the folder ' +
      folder_name + ' in container "' + container_name + '"...')
container_url = f"https://{azure_storage_account_name}.blob.core.windows.net/"
blob_service_client = BlobServiceClient(
    container_url, azure_storage_sas_token if azure_storage_sas_token else None)

container_client = blob_service_client.get_container_client(container_name)
blobs = container_client.list_blobs(folder_name)
sorted_blobs = sorted(list(blobs), key=lambda e: e.name, reverse=True)
targetBlobName = ''
for blob in sorted_blobs:
    if blob.name.startswith(folder_name) and blob.name.endswith('.parquet'):
        targetBlobName = blob.name
        break

print('Target blob to download: ' + targetBlobName)
_, filename = os.path.split(targetBlobName)
blob_client = container_client.get_blob_client(targetBlobName)
with open(filename, 'wb') as local_file:
    blob_client.download_blob().download_to_stream(local_file)
In [4]:
# Read the parquet file into Pandas data frame
import pandas as pd

print('Reading the parquet file into Pandas data frame')
df = pd.read_parquet(filename)
In [5]:
# you can add your filter at below
print('Loaded as a Pandas data frame: ')
df
In [6]:
 

Azure Databricks

Package: Language: Python Python
In [1]:
# This is a package in preview.
from azureml.opendatasets import UsLaborPPIIndustry

labor = UsLaborPPIIndustry()
labor_df = labor.to_spark_dataframe()
ActivityStarted, to_spark_dataframe ActivityStarted, to_spark_dataframe_in_worker ActivityCompleted: Activity=to_spark_dataframe_in_worker, HowEnded=Success, Duration=2665.84 [ms] ActivityCompleted: Activity=to_spark_dataframe, HowEnded=Success, Duration=2668.22 [ms]
In [2]:
display(labor_df.limit(5))
product_codeindustry_codeseries_idyearperiodvaluefootnote_codesseasonalseries_titleindustry_nameproduct_name
2123240212324PCU2123242123240 1998M01117.0nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
2123240212324PCU2123242123240 1998M02116.9nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
2123240212324PCU2123242123240 1998M03116.3nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
2123240212324PCU2123242123240 1998M04116.0nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
2123240212324PCU2123242123240 1998M05116.2nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
In [1]:
# Azure storage access info
blob_account_name = "azureopendatastorage"
blob_container_name = "laborstatisticscontainer"
blob_relative_path = "ppi_industry/"
blob_sas_token = r""
In [2]:
# Allow SPARK to read from Blob remotely
wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path)
spark.conf.set(
  'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name),
  blob_sas_token)
print('Remote blob path: ' + wasbs_path)
In [3]:
# SPARK read parquet, note that it won't load any data yet by now
df = spark.read.parquet(wasbs_path)
print('Register the DataFrame as a SQL temporary view: source')
df.createOrReplaceTempView('source')
In [4]:
# Display top 10 rows
print('Displaying top 10 rows: ')
display(spark.sql('SELECT * FROM source LIMIT 10'))

Azure Synapse

Package: Language: Python
In [1]:
# Azure storage access info
blob_account_name = "azureopendatastorage"
blob_container_name = "laborstatisticscontainer"
blob_relative_path = "ppi_industry/"
blob_sas_token = r""
In [2]:
# Allow SPARK to read from Blob remotely
wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path)
spark.conf.set(
  'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name),
  blob_sas_token)
print('Remote blob path: ' + wasbs_path)
In [3]:
# SPARK read parquet, note that it won't load any data yet by now
df = spark.read.parquet(wasbs_path)
print('Register the DataFrame as a SQL temporary view: source')
df.createOrReplaceTempView('source')
In [4]:
# Display top 10 rows
print('Displaying top 10 rows: ')
display(spark.sql('SELECT * FROM source LIMIT 10'))