Post

(TensorFlow) Datasets API

자세한 설명은 가이드 참조.

Dataset API 를 사용하면 input pipelines / Threading and Queue 과정을 손쉽게 처리할 수 있다. ( 1.4부터 contrib에서 코어로 옮겨졌다. )

datasetelement들로 이루어져 있으며 elementtf.Tensor들로 이루어져 있다.

  • element1
    • image1
    • label1
  • element2
    • image2
    • label2

Basic mechanics

1
2
3
4
5
6
7
8
>>> sess.run(tf.random_uniform([2, 4]))                                                   
array([[ 0.77109301,  0.34201586,  0.0554806 ,  0.96262276],
       [ 0.99343991,  0.84189892,  0.8897506 ,  0.27429628]], dtype=float32)
>>> dataset1 = tf.data.Dataset.from_tensor_slices(tf.random_uniform([2, 4]))              
>>> dataset1.output_types
tf.float32
>>> dataset1.output_shapes
TensorShape([Dimension(4)])

한 행이 한 element라고 생각하면 된다. 한 row 씩 반환하게 되고, 한 row는 한 element이기 때문에 output_shapeselement의 shape이다.

dataset에서 element를 꺼내기 위해서는 tf.data.Iterator를 사용한다.

1
2
3
4
5
6
7
8
>>> dataset = tf.data.Dataset.range(10)
>>> iterator = dataset.make\_one\_shot\_iterator()
>>> next\_element = iterator.get\_next()
>>> sess = tf.Session()
>>> sess.run(next\_element)
0
>>> sess.run(next\_element)
1

Note: Currently, one-shot iterators are the only type that is easily usable with an Estimator. (17.11.17)

그러나 다음과 같은 parameterization은 지원하지 않는다.

1
2
3
4
>>> max\_value = tf.placeholder(tf.int64, shape=[])
>>> dataset = tf.data.Dataset.range(max\_value)
>>> iterator = dataset.make\_one\_shot\_iterator()
ValueError: Cannot capture a placeholder (name:Placeholder\_1, type:Placeholder) by value.

그래서 이와같이 사용하려면 dataset.make\_initializable_iterator() 등등을 사용해야 한다. 가장 유연하고 좋은 방식은 feedable iterator를 사용하는 것인데, 위에 적어놓았듯 Estimator와 같이 쓰기가 좀 그렇다.

그리고 주의해야 할 점은, Iterator.get_next()가 호출될 때 마다 Iterator에서 새로운 element를 꺼내는 것이 아니라는 점이다. sess.run()에 집어넣어야 다음 element를 반환한다.

1
2
3
4
5
6
7
8
9
10
11
12
13
>>> dataset = tf.data.Dataset.range(5)
>>> iterator = dataset.make\_one\_shot\_iterator()
>>> next\_element = iterator.get\_next()
>>> # 여기서 next\_element가 두 번 호출된다고 두 번 꺼내는게 아니다.
>>> result = tf.add(next\_element, next\_element)
>>> sess.run(result)
0
>>> sess.run(result)
2    # 1+1 = 2
>>> sess.run(next\_element)
2    # 2
>>> sess.run(result)
6    # 3+3 = 2

그래서 다음과 같이 사용한다.

1
2
3
4
5
6
sess.run(iterator.initializer)
while True:
  try:
    sess.run(result)
  except tf.errors.OutOfRangeError:
    break

Decoding image data and resizing it

이런 식으로 사용한다.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
# Reads an image from a file, decodes it into a dense tensor, and resizes it
# to a fixed shape.
def _image_processing(filename, label):
    image_string = tf.read_file(filename)
    image_decoded = tf.image.decode_png(image_string)
    # tf.image.decode_image를 사용하면 더 좋지만 에러 발생
    image_resized = tf.image.resize_images(image_decoded, [28, 28])
    return image_resized, label

# A vector of filenames.

fnames = tf.constant(glob.glob("./mnist_test/*"))
labels = tf.constant([2])

dataset = tf.data.Dataset.from_tensor_slices((fnames, labels))
dataset = dataset.map(_image_processing)

Applying arbitrary Python logic with tf.py_func()

텐서플로우의 동작 방식이 일반적인 python logic과는 달리 그래프를 구성하고, 나중에 실행하는 방식이다 보니 원래대로라면 OpenCV같은 다른 API의 파일 처리와 연계하기가 조금 복잡스럽다. 그러나 이를 간단히 처리할 수 있도록 tf.py_func()라는 API를 지원한다.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
import cv2

# Use a custom OpenCV function to read the image, instead of the standard
# TensorFlow `tf.read_file()` operation.
def _read_py_function(filename, label):
  image_decoded = cv2.imread(image_string, cv2.IMREAD_GRAYSCALE)
  return image_decoded, label

# Use standard TensorFlow operations to resize the image to a fixed shape.
def _resize_function(image_decoded, label):
  image_decoded.set_shape([None, None, None])
  image_resized = tf.image.resize_images(image_decoded, [28, 28])
  return image_resized, label

filenames = ["/var/data/image1.jpg", "/var/data/image2.jpg", ...]
labels = [0, 37, 29, 1, ...]

dataset = tf.data.Dataset.from_tensor_slices((filenames, labels))
dataset = dataset.map(
    lambda filename, label: tuple(tf.py_func(
        _read_py_function, [filename, label], [tf.uint8, label.dtype])))
dataset = dataset.map(_resize_function)

shuffle, epoch, batch

1
2
3
4
5
>>> dataset = tf.data.Dataset.range(10)
>>> dataset = dataset.map(...)
>>> dataset = dataset.shuffle(buffer\_size = 10)
>>> dataset = dataset.batch(2)     # batch
>>> dataset = dataset.repeat(3)    # epoch. 지정하지 않으면 무한히 제공.
This post is licensed under CC BY 4.0 by the author.