Movatterモバイル変換


[0]ホーム

URL:


Skip to content

Navigation Menu

Sign in
Appearance settings

Search code, repositories, users, issues, pull requests...

Provide feedback

We read every piece of feedback, and take your input very seriously.

Saved searches

Use saved searches to filter your results more quickly

Sign up
Appearance settings

Traducción de library/tokenize.po#621

New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to ourterms of service andprivacy statement. We’ll occasionally send you account related emails.

Already on GitHub?Sign in to your account

Merged
cmaureir merged 7 commits intopython:3.8fromifosch:traduccion-library-tokenize-po
Jul 26, 2020
Merged
Changes from1 commit
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
PrevPrevious commit
Arreglar rewrap en library/tokenize.po
  • Loading branch information
@ifosch
ifosch committedJul 25, 2020
commit723359e4fb0e70dd2fe7832c819ece877ef07b4a
28 changes: 13 additions & 15 deletionslibrary/tokenize.po
View file
Open in desktop
Original file line numberDiff line numberDiff line change
Expand Up@@ -6,13 +6,12 @@
# Check https://github.com/PyCampES/python-docs-es/blob/3.8/TRANSLATORS to
# get the list of volunteers
#
#, fuzzy
msgid ""
msgstr ""
"Project-Id-Version: Python 3.8\n"
"Report-Msgid-Bugs-To: \n"
"POT-Creation-Date: 2020-05-05 12:54+0200\n"
"PO-Revision-Date: 2020-07-2519:08+0200\n"
"PO-Revision-Date: 2020-07-2521:23+0200\n"
"Language-Team: python-doc-es\n"
"MIME-Version: 1.0\n"
"Content-Type: text/plain; charset=UTF-8\n"
Expand DownExpand Up@@ -93,8 +92,8 @@ msgstr ""
"``(erow, ecol)`` de enteros especificando la fila y columna donde el token "
"acaba en el código, y la línea en la que se encontró el token. La línea "
"pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
"retorna como una :term:`named tuple` con los campos: ``type string start "
"endline``."
"retorna como una :term:`named tuple` con los campos: ``type string startend"
"line``."

#: ../Doc/library/tokenize.rst:46
msgid ""
Expand All@@ -105,8 +104,8 @@ msgid ""
msgstr ""
"La :term:`named tuple` retorna tiene una propiedad adicional llamada "
"``exact_type`` que contiene el tipo de operador exacto para tokens :data:"
"`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el "
"valordel campo ``type`` de la tupla con su respectivo nombre."
"`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es elvalor"
"del campo ``type`` de la tupla con su respectivo nombre."

#: ../Doc/library/tokenize.rst:51
msgid "Added support for named tuples."
Expand DownExpand Up@@ -196,8 +195,8 @@ msgid ""
"the first token sequence output by :func:`.tokenize`. If there is no "
"encoding token in the input, it returns a str instead."
msgstr ""
"Retorna bytes, codificados usando el token :data:`~token.ENCODING`, que "
"esel primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
"Retorna bytes, codificados usando el token :data:`~token.ENCODING`, quees"
"el primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
"hay un token de codificación en la entrada, retorna una cadena."

#: ../Doc/library/tokenize.rst:96
Expand DownExpand Up@@ -315,8 +314,8 @@ msgid ""
"If :file:`filename.py` is specified its contents are tokenized to stdout. "
"Otherwise, tokenization is performed on stdin."
msgstr ""
"Si se especifica :file:`filename.py`, se convierte su contenido a tokens "
"porla salida estándar. En otro caso, se convierte la entrada estándar."
"Si se especifica :file:`filename.py`, se convierte su contenido a tokenspor"
"la salida estándar. En otro caso, se convierte la entrada estándar."

#: ../Doc/library/tokenize.rst:177
msgid "Examples"
Expand All@@ -341,9 +340,8 @@ msgid ""
"token (if any)"
msgstr ""
"se convertirá en la salida siguiente, donde la primera columna es el rango "
"de coordenadas línea/columna donde se encuentra el token, la segunda "
"columna es el nombre del token, y la última columna es el valor del "
"token, si lo hay"
"de coordenadas línea/columna donde se encuentra el token, la segunda columna "
"es el nombre del token, y la última columna es el valor del token, si lo hay"

#: ../Doc/library/tokenize.rst:256
msgid ""
Expand All@@ -357,8 +355,8 @@ msgid ""
"Example of tokenizing a file programmatically, reading unicode strings "
"instead of bytes with :func:`generate_tokens`::"
msgstr ""
"Ejemplo de tokenización de un fichero programáticamente, leyendo "
"cadenasunicode en lugar de *bytes* con :func:`generate_tokens`::"
"Ejemplo de tokenización de un fichero programáticamente, leyendocadenas"
"unicode en lugar de *bytes* con :func:`generate_tokens`::"

#: ../Doc/library/tokenize.rst:292
msgid "Or reading bytes directly with :func:`.tokenize`::"
Expand Down

[8]ページ先頭

©2009-2025 Movatter.jp