详情页标题前

阿里云人工智能平台PAI使用paiio读写MaxCompute表数据-云淘科技

详情页1

为了在DLC任务中方便地读写MaxCompute表数据,PAI团队开发了paiio模块。paiio支持TableRecordDatasetTableReaderTableWriter三种接口,本文详细介绍这三种接口的使用说明及读写MaxCompute表数据的使用示例。

使用限制

  • paiio模块仅支持TensorFlow 1.12、TensorFlow 1.15及TensorFlow 2.0。

  • paiio模块不支持自定义镜像。

准备工作:配置账户信息

使用paiio模块读写MaxCompute表数据之前,需要配置MaxCompute账户的AccessKey信息。PAI支持从配置文件读取配置信息,您可以将配置文件放置在挂载的文件系统中,然后在代码中通过环境变量引用。

  1. 编写配置文件,内容如下。

    access_id=xxxx
    access_key=xxxx
    end_point=http://xxxx

    参数

    描述

    access_id

    阿里云账号的AccessKey ID。

    access_key

    阿里云账号的AccessKey Secret。

    end_point

    MaxCompute的Endpoint,详情请参见Endpoint。

  2. 在代码中指定配置文件路径,方式如下。

    os.environ['ODPS_CONFIG_FILE_PATH'] = ''

    其中表示配置文件的路径。

TableRecordDataset使用说明

TensorFlow社区推荐在1.2及以上版本中使用Dataset接口(详情请参见Dataset)替代原有的线程和队列接口构建数据流。通过多个Dataset接口的组合变换生成计算数据,可以简化数据输入部分的代码。

  • 接口定义(Python)

    class TableRecordDataset(Dataset):
      def __init__(self,
                   filenames,
                   record_defaults,
                   selected_cols=None,
                   excluded_cols=None,
                   slice_id=0,
                   slice_count=1,
                   num_threads=0,
                   capacity=0):
  • 参数

    参数

    是否必选

    类型

    默认值

    描述

    filenames

    STRING

    待读取的表名集合(列表),多张表的Schema必须一致。表名格式为odps://${your_projectname}/tables/${table_name}/${pt_1}/${pt_2}/...

    record_defaults

    LIST或TUPLE

    用于读出列的数据类型转换及列为空时的默认值。如果该值与实际读出的列数不符,或数据类型无法自动转换,则执行过程中系统会抛出异常。

    系统支持的数据类型包括FLOAT32、FLOAT64、INT32、INT64、BOOL及STRING,INT64类型的默认值请参见np.array(0, np.int64)

    selected_cols

    STRING

    None

    选取的列,格式为英文逗号(,)分隔的字符串。默认值None表示读取所有列。该参数与excluded_cols不能同时使用。

    excluded_cols

    STRING

    None

    排除的列,格式为英文逗号(,)分隔的字符串。默认值None表示读取所有列。该参数与selected_cols不能同时使用。

    slice_id

    INT

    0

    在分布式读取场景下,当前分片的编号(从0开始编号)。分布式读取时,系统根据slice_count将表均分为多个分片,读取slice_id对应的分片。

    slice_id为默认值0时,如果slice_count取值为1,则表示读取整张表。如果slice_count大于1,则表示读取第0个分片。

    slice_count

    INT

    1

    在分布式读取场景下,总的分片数量,通常为Worker数量。默认值1表示不分片,即读取整张表,

    num_threads

    INT

    0

    预取数据时,每个访问表的内置Reader启用的线程(独立于计算线程)数量。取值范围为1~64。如果num_threads取值为0,则系统自动将新建的预取线程数配置为计算线程池线程数的1/4。

    说明

    因为I/O对每个模型的整体计算影响不同,所以提高预取线程数,不一定可以提升整体模型的训练速度。

    capacity

    INT

    0

    读取表的总预取量,单位为行数。如果num_threads大于1,则每个线程的预取量为capacity/num_threads行(向上取整)。如果capacity为0,则内置Reader根据所读表的前N行(系统默认N=256)平均值自动配置总预取量,使得每个线程的预取数据约占空间64 MB。

    说明

    如果MaxCompute表字段为DOUBLE类型,则TensorFlow中需要使用np.float64格式与其对应。

  • 返回值

    返回Dataset对象,可以作为Pipeline工作流构建的输入。

  • 示例

    假设在myproject项目中存储了一张名为test的表,其部分内容如下所示。

    itemid(BIGINT)

    name(STRING)

    price(DOUBLE)

    virtual(BOOL)

    25

    “Apple”

    5.0

    False

    38

    “Pear”

    4.5

    False

    17

    “Watermelon”

    2.2

    False

    以下代码实现了使用TableRecordDataset接口读取test表itemid和price列的数据。

    import tensorflow as tf
    import paiio
    
    # Table list to read.
    table = ["odps://myproject/tables/test"]
    
    # Define a new TableRecordDataset to read itemid and price.
    dataset = paiio.data.TableRecordDataset(table,
                                         record_defaults = [0, 0.0],
                                         selected_cols = "itemid,price")
    
    # Set epoch as 10,get a batch of 128, and prefetch 10000 batch.
    dataset = dataset.repeat(10).batch(128).prefetch(10000)
    
    # Got a batch of ids and prices.
    [ids, prices] = dataset.make_one_shot_iterator().get_next()
    
    # Do other graph construction and finally run the graph.
    with tf.Session() as sess:
        sess.run(tf.global_variables_initializer())
        sess.run(tf.local_variables_initializer())
        ids_, price_ = sess.run([ids, prices])
        print([ids_, price_])      

TableReader使用说明

TableReader基于MaxCompute SDK实现,不依赖TensorFlow框架,可以直接访问MaxCompute表并即时获取I/O结果。

  • 接口说明

    • 创建Reader并打开表

      • 接口定义

        reader = paiio.python_io.TableReader(table,
                             selected_cols="",
                            excluded_cols="",
                             slice_id=0,
                            slice_count=1):
      • 参数

        参数

        是否必选

        类型

        默认值

        描述

        table

        STRING

        需要打开的MaxCompute表名,格式为odps://${your_projectname}/tables/${table_name}/${pt_1}/${pt_2}/...

        selected_cols

        STRING

        空字符串(””)

        选取的列,格式为英文逗号(,)分隔的字符串。默认值空字符串(””)表示读取所有列。该参数与excluded_cols不能同时使用。

        excluded_cols

        STRING

        空字符串(””)

        排除的列,格式为英文逗号(,)分隔的字符串。默认值空字符串(””)表示读取所有列。该参数与selected_cols不能同时使用。

        slice_id

        INT

        0

        在分布式读取场景下,当前分片的编号,取值范围为[0, slice_count-1]。分布式读取时,系统根据slice_count将表均分为多个分片,读取slice_id对应的分片。默认值0表示不分片,即读取表的所有行。

        slice_count

        INT

        1

        在分布式读取场景下,总的分片数量,通常为Worker数量。

      • 返回值

        Reader对象。

    • 读取记录

      • 接口定义

        reader.read(num_records=1)
      • 参数

        num_records表示顺序读取的行数。默认值为1,即读取1行。如果num_records参数超出未读的行数时,则返回读取到的所有行。如果未读取到记录,则抛出OutOfRange异常(paiio.python_io.OutOfRangeException)。

      • 返回值

        返回一个numpy ndarray数组(或称为recarray),数组中每个元素为表的一行数据组成的一个TUPLE。

    • 定位到相应行

      • 接口定义

        reader.seek(offset=0)
      • 参数

        offset表示定位到的行(行从0开始编号),下一个Read操作将从定位的行开始。如果配置了slice_id和slice_count,则按分片位置进行相对行的定位。如果offset超出表的总行数,则系统抛出OutOfRange异常。如果之前的读取位置已经超出表尾,则继续进行seek系统会抛出OutOfRange异常(paiio.python_io.OutOfRangeException)。

        重要

        读取一个batch_size时,如果剩余行数不足一个batch_size,则read操作会返回剩余行且不抛异常。此时,如果继续进行seek操作,则系统会抛异常。

      • 返回值

        无返回值。如果操作出错,则系统抛出异常。

    • 获取表的总记录数

      • 接口定义

        reader.get_row_count()
      • 参数

      • 返回值

        返回表的行数。如果配置了slice_id和slice_count,则返回分片大小。

    • 获取表的Schema

      • 接口定义

        reader.get_schema()
      • 参数

      • 返回值

        返回1D-stuctured ndarray,每个元素对应reader中选定的MaxCompute表中一列的Schema,包括如下三个元素。

        参数

        描述

        colname

        列名。

        typestr

        MaxCompute数据类型名称。

        pytype

        typestr对应的Python数据类型。

        typestr和pytype的对应关系如下表所示。

        typestr

        pytype

        BIGINT

        INT

        DOUBLE

        FLOAT

        BOOLEAN

        BOOL

        STRING

        OBJECT

        DATETIME

        INT

        MAP

        说明

        PAI-TensorFlow不支持对MAP类型数据进行操作。

        OBJECT

    • 关闭表

      • 接口定义

        reader.close()
      • 参数

      • 返回值

        无返回值。如果操作出错,则系统抛出异常。

  • 使用示例

    假设在myproject项目中存储了一张名为test的表,其内容如下所示。

    uid(BIGINT)

    name(STRING)

    price(DOUBLE)

    virtual(BOOL)

    25

    “Apple”

    5.0

    False

    38

    “Pear”

    4.5

    False

    17

    “Watermelon”

    2.2

    False

    以下代码实现了使用TableReader读取uid、name及price列的数据。

    import os
    import paiio
    
    # 打开一张表,返回reader对象。
    reader = paiio.python_io.TableReader("odps://myproject/tables/test", selected_cols="uid,name,price")
    
    # 获得表的总行数。
    total_records_num = reader.get_row_count() # return 3
    
    batch_size = 2
    # 读表,返回值将是一个recarray数组,形式为[(uid, name, price)*2]。
    records = reader.read(batch_size) # 返回[(25, "Apple", 5.0), (38, "Pear", 4.5)]
    records = reader.read(batch_size) # 返回[(17, "Watermelon", 2.2)]
    # 继续读取将抛出OutOfRange异常。
    
    # Close the reader.
    reader.close()

TableWriter使用说明

TableWriter基于MaxCompute SDK实现,不依赖TensorFlow框架,可以直接对MaxCompute表进行写入并返回。

  • 接口说明

    • 创建Writer并打开表

      • 接口定义

        writer = paiio.python_io.TableWriter(table, slice_id=0)

        说明

        • 该接口不会清空原表中的数据,采用追加的方式写入数据。

        • 对于新写入的数据,关闭表之后才能对其进行读取。

      • 参数

        参数

        是否必选

        类型

        默认值

        描述

        table

        STRING

        待打开的MaxCompute表名,格式为odps://${your_projectname}/tables/${table_name}/${pt_1}/${pt_2}/...

        slice_id

        INT

        0

        在分布式场景,写表至不同的分片,从而避免写冲突。在单机场景,使用默认值0即可。在多机场景,如果多个Worker(包括PS)同时使用同一个slice_id写表,则会导致写入失败。

      • 返回值

        返回Writer对象。

    • 写入记录

      • 接口定义

        writer.write(values, indices)
      • 参数

        参数

        是否必选

        类型

        默认值

        描述

        values

        STRING

        待写入的数据。支持写入单行数据或多行数据:

        • 如果仅写入单行数据,则向values参数传入一个由标量组成的TUPLE、LIST或1D-ndarray。如果传入的是LIST或ndarray,则说明写入的各列数据类型一致。

        • 如果写入N行数据(N>=1),可以向values参数传入一个LIST或1D-ndarray,参数中的每个元素都应该对应一个单行的数据(用TUPLE或LIST表示,也可以通过Structure形式存放于ndarray中)。

        indices

        INT

        指定数据写入的列,支持传入由INT类型Index组成的TUPLE、LIST或1D-ndarray。indices中每个数(i)对应表中相应的第i列(列数从0开始编号)。

      • 返回值

        无返回值。如果写过程出错,则系统会抛出异常并退出。

    • 关闭表

      • 接口定义

        writer.close()

        说明

        在with语句的区块中,无需显示调用close()接口关闭表。

      • 参数

      • 返回值

        无返回值。如果操作出错,则系统抛出异常。

      • 示例

        通过with语句使用TableWriter,代码如下。

        with paiio.python_io.TableWriter(table) as writer:
          # Prepare values for writing.
            writer.write(values, incides)
            # Table would be closed automatically outside this section.
  • 使用示例

    import paiio
    
    # 准备数据。
    values = [(25, "Apple", 5.0, False),
              (38, "Pear", 4.5, False),
              (17, "Watermelon", 2.2, False)]
    
    # 打开一个表,返回writer对象。
    writer = paiio.python_io.TableWriter("odps://project/tables/test")
    
    # Write records to the 0-3 columns of the table. 将数据写至表中的第0-3列。
    records = writer.write(values, indices=[0, 1, 2, 3])
    
    # 关闭writer。
    writer.close()

内容没看懂? 不太想学习?想快速解决? 有偿解决: 联系专家

阿里云企业补贴进行中: 马上申请

腾讯云限时活动1折起,即将结束: 马上收藏

同尘科技为腾讯云授权服务中心。

购买腾讯云产品享受折上折,更有现金返利:同意关联,立享优惠

转转请注明出处:https://www.yunxiaoer.com/163987.html

(0)
上一篇 2023年12月10日 上午5:56
下一篇 2023年12月10日 上午5:57
详情页2

相关推荐

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信
本站为广大会员提供阿里云、腾讯云、华为云、百度云等一线大厂的购买,续费优惠,保证底价,买贵退差。