탐색 건너뛰기

US Producer Price Index - Industry

labor statistics ppi industry

PPI(생산자 물가 지수)는 국내 생산자가 얻는 산출물 판매 가격의 시간에 따른 평균 변동을 측정한 값입니다. PPI에 포함된 가격은 해당 제품 및 서비스의 첫 번째 상거래에서 나온 것입니다.

Producer Price Index Revision-Current Series(생산자 물가 지수 개정-현재 계열) 지수는 NAICS(북미 산업 분류 시스템)에 따라 구성되는 생산자의 순 산출물에 대한 가격 동향을 반영합니다. PC 데이터 세트는 생산성, 생산, 고용, 임금 및 수익을 포함한 광범위한 NAICS 기반 경제 시계열과 호환됩니다.

PPI 체계는 미국 경제의 제품 생산 부문에 속한 모든 산업(광업, 제조업, 농업, 어업, 임업, 천연가스업, 전기업, 건설업뿐 아니라 생산 부문에서 제조된 제품의 경쟁 제품(예: 폐기물) 재활용업)의 산출물로 구성됩니다. 또한 2011년 1월 기준 PPI 프로그램은 서비스 부문 산출물의 3/4 이상을 포함하며 도소매업, 운송 및 창고업, 정보업, 금융 및 보험업, 부동산 중개/임대/리스업, 전문/과학/기술 서비스업, 행정/지원/폐기물 관리 서비스업, 건강 관리 및 사회 서비스업, 숙박업 등의 산업 부문에서 선택된 산업의 데이터를 게시합니다.

이 데이터 세트에 대한 자세한 정보의 파일을 포함하는 추가 정보원본 데이터 세트 위치에서 확인할 수 있습니다. 추가 정보는 FAQ에서 확인할 수 있습니다.

이 데이터 세트는 미국 BLS(노동 통계국)에서 게시한 생산자 물가 지수 데이터에서 생성됩니다. 이 데이터 세트 사용과 관련된 사용 약관은 연결 및 저작권 정보중요한 웹 사이트 고지 사항을 검토하세요.

스토리지 위치

이 데이터 세트는 미국 동부 Azure 지역에 저장됩니다. 선호도를 위해 미국 동부에 컴퓨팅 리소스를 할당하는 것이 좋습니다.

관련 데이터 세트

알림

Microsoft는 Azure Open Datasets를 “있는 그대로” 제공합니다. Microsoft는 귀하의 데이터 세트 사용과 관련하여 어떠한 명시적이거나 묵시적인 보증, 보장 또는 조건을 제공하지 않습니다. 귀하가 거주하는 지역의 법규가 허용하는 범위 내에서 Microsoft는 귀하의 데이터 세트 사용으로 인해 발생하는 일체의 직접적, 결과적, 특별, 간접적, 부수적 또는 징벌적 손해 또는 손실을 비롯한 모든 손해 또는 손실에 대한 모든 책임을 부인합니다.

이 데이터 세트는 Microsoft가 원본 데이터를 받은 원래 사용 약관에 따라 제공됩니다. 데이터 세트에는 Microsoft가 제공한 데이터가 포함될 수 있습니다.

Access

Available inWhen to use
Azure Notebooks

Quickly explore the dataset with Jupyter notebooks hosted on Azure or your local machine.

Azure Databricks

Use this when you need the scale of an Azure managed Spark cluster to process the dataset.

Azure Synapse

Use this when you need the scale of an Azure managed Spark cluster to process the dataset.

Preview

product_code industry_code series_id year period value footnote_codes seasonal series_title industry_name product_name
2123240 212324 PCU2123242123240 1998 M01 117 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M02 116.9 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M03 116.3 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M04 116 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M05 116.2 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M06 116.3 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M07 116.6 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M08 116.3 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M09 116.2 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
2123240 212324 PCU2123242123240 1998 M10 115.9 nan U PPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjusted Kaolin and ball clay mining Kaolin and ball clay
Name Data type Unique Values (sample) Description
footnote_codes string 3 nan
P

데이터 계열의 각주를 식별합니다. 대부분 값은 null입니다. https://download.bls.gov/pub/time.series/pc/pc.footnote을 참조하세요.

industry_code string 1,064 221122
325412

산업의 NAICS 코드입니다. 코드 및 이름은 https://download.bls.gov/pub/time.series/pc/pc.industry 를 참조하세요.

industry_name string 842 Electric power distribution
Pharmaceutical preparation manufacturing

산업 코드에 해당하는 이름입니다. 코드 및 이름은 https://download.bls.gov/pub/time.series/pc/pc.industry 를 참조하세요.

period string 13 M06
M07

데이터가 관찰된 기간을 식별합니다. 전체 목록은 https://download.bls.gov/pub/time.series/pc/pc.period 를 참조하세요.

product_code string 4,822 339113
325910

데이터 관찰이 참조하는 제품을 식별하는 코드입니다. 산업 코드, 제품 코드 및 제품 이름의 매핑은 https://download.bls.gov/pub/time.series/pc/pc.product 를 참조하세요.

product_name string 3,313 Primary products
Secondary products

데이터 관찰이 참조하는 제품의 이름입니다. 산업 코드, 제품 코드 및 제품 이름의 매핑은 https://download.bls.gov/pub/time.series/pc/pc.product 를 참조하세요.

seasonal string 1 U

데이터가 계절에 따라 조정되었는지 여부를 식별하는 코드입니다. S=Seasonally Adjusted; U=Unadjusted

series_id string 4,822 PCU3261503261504
PCU5413--5413--

특정 계열을 식별하는 코드입니다. 시계열은 일관된 시간 간격으로 긴 기간 동안 관찰된 데이터 세트를 의미합니다. 코드, 이름, 시작 및 종료 연도 등의 시리즈에 관한 자세한 내용은 https://download.bls.gov/pub/time.series/pc/pc.series 를 참조하세요.

series_title string 4,588 PPI industry data for Electric power distribution-Pacific, not seasonally adjusted
PPI industry data for Electric power distribution-East North Central, not seasonally adjusted
value float 7,658 100.0
100.4000015258789

항목에 대한 가격 지수입니다.

year int 22 2015
2017

관찰 연도를 식별합니다.

Select your preferred service:

Azure Notebooks

Azure Databricks

Azure Synapse

Azure Notebooks

Package: Language: Python Python
In [1]:
# This is a package in preview.
from azureml.opendatasets import UsLaborPPIIndustry

labor = UsLaborPPIIndustry()
labor_df = labor.to_pandas_dataframe()
ActivityStarted, to_pandas_dataframe
ActivityStarted, to_pandas_dataframe_in_worker
Looking for parquet files...
Reading them into Pandas dataframe...
Reading ppi_industry/part-00000-tid-1761562550540733469-da319923-1af6-4884-a5f4-16397508d15f-4596-1-c000.snappy.parquet under container laborstatisticscontainer
Done.
ActivityCompleted: Activity=to_pandas_dataframe_in_worker, HowEnded=Success, Duration=7978.44 [ms]
ActivityCompleted: Activity=to_pandas_dataframe, HowEnded=Success, Duration=8014.64 [ms]
In [2]:
labor_df.info()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 948634 entries, 0 to 948633
Data columns (total 11 columns):
product_code      948634 non-null object
industry_code     948634 non-null object
series_id         948634 non-null object
year              948634 non-null int32
period            948634 non-null object
value             948634 non-null float32
footnote_codes    948634 non-null object
seasonal          948634 non-null object
series_title      948634 non-null object
industry_name     948634 non-null object
product_name      948634 non-null object
dtypes: float32(1), int32(1), object(9)
memory usage: 72.4+ MB
In [1]:
# Pip install packages
import os, sys

!{sys.executable} -m pip install azure-storage-blob
!{sys.executable} -m pip install pyarrow
!{sys.executable} -m pip install pandas
In [2]:
# Azure storage access info
azure_storage_account_name = "azureopendatastorage"
azure_storage_sas_token = r""
container_name = "laborstatisticscontainer"
folder_name = "ppi_industry/"
In [3]:
from azure.storage.blob import BlockBlobServicefrom azure.storage.blob import BlobServiceClient, BlobClient, ContainerClient

if azure_storage_account_name is None or azure_storage_sas_token is None:
    raise Exception(
        "Provide your specific name and key for your Azure Storage account--see the Prerequisites section earlier.")

print('Looking for the first parquet under the folder ' +
      folder_name + ' in container "' + container_name + '"...')
container_url = f"https://{azure_storage_account_name}.blob.core.windows.net/"
blob_service_client = BlobServiceClient(
    container_url, azure_storage_sas_token if azure_storage_sas_token else None)

container_client = blob_service_client.get_container_client(container_name)
blobs = container_client.list_blobs(folder_name)
sorted_blobs = sorted(list(blobs), key=lambda e: e.name, reverse=True)
targetBlobName = ''
for blob in sorted_blobs:
    if blob.name.startswith(folder_name) and blob.name.endswith('.parquet'):
        targetBlobName = blob.name
        break

print('Target blob to download: ' + targetBlobName)
_, filename = os.path.split(targetBlobName)
blob_client = container_client.get_blob_client(targetBlobName)
with open(filename, 'wb') as local_file:
    blob_client.download_blob().download_to_stream(local_file)
In [4]:
# Read the parquet file into Pandas data frame
import pandas as pd

print('Reading the parquet file into Pandas data frame')
df = pd.read_parquet(filename)
In [5]:
# you can add your filter at below
print('Loaded as a Pandas data frame: ')
df
In [6]:
 

Azure Databricks

Package: Language: Python Python
In [1]:
# This is a package in preview.
from azureml.opendatasets import UsLaborPPIIndustry

labor = UsLaborPPIIndustry()
labor_df = labor.to_spark_dataframe()
ActivityStarted, to_spark_dataframe ActivityStarted, to_spark_dataframe_in_worker ActivityCompleted: Activity=to_spark_dataframe_in_worker, HowEnded=Success, Duration=2665.84 [ms] ActivityCompleted: Activity=to_spark_dataframe, HowEnded=Success, Duration=2668.22 [ms]
In [2]:
display(labor_df.limit(5))
product_codeindustry_codeseries_idyearperiodvaluefootnote_codesseasonalseries_titleindustry_nameproduct_name
2123240212324PCU2123242123240 1998M01117.0nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
2123240212324PCU2123242123240 1998M02116.9nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
2123240212324PCU2123242123240 1998M03116.3nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
2123240212324PCU2123242123240 1998M04116.0nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
2123240212324PCU2123242123240 1998M05116.2nanUPPI industry data for Kaolin and ball clay mining-Kaolin and ball clay, not seasonally adjustedKaolin and ball clay miningKaolin and ball clay
In [1]:
# Azure storage access info
blob_account_name = "azureopendatastorage"
blob_container_name = "laborstatisticscontainer"
blob_relative_path = "ppi_industry/"
blob_sas_token = r""
In [2]:
# Allow SPARK to read from Blob remotely
wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path)
spark.conf.set(
  'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name),
  blob_sas_token)
print('Remote blob path: ' + wasbs_path)
In [3]:
# SPARK read parquet, note that it won't load any data yet by now
df = spark.read.parquet(wasbs_path)
print('Register the DataFrame as a SQL temporary view: source')
df.createOrReplaceTempView('source')
In [4]:
# Display top 10 rows
print('Displaying top 10 rows: ')
display(spark.sql('SELECT * FROM source LIMIT 10'))

Azure Synapse

Package: Language: Python
In [1]:
# Azure storage access info
blob_account_name = "azureopendatastorage"
blob_container_name = "laborstatisticscontainer"
blob_relative_path = "ppi_industry/"
blob_sas_token = r""
In [2]:
# Allow SPARK to read from Blob remotely
wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path)
spark.conf.set(
  'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name),
  blob_sas_token)
print('Remote blob path: ' + wasbs_path)
In [3]:
# SPARK read parquet, note that it won't load any data yet by now
df = spark.read.parquet(wasbs_path)
print('Register the DataFrame as a SQL temporary view: source')
df.createOrReplaceTempView('source')
In [4]:
# Display top 10 rows
print('Displaying top 10 rows: ')
display(spark.sql('SELECT * FROM source LIMIT 10'))