Movatterモバイル変換


[0]ホーム

URL:


Skip to content

Navigation Menu

Sign in
Appearance settings

Search code, repositories, users, issues, pull requests...

Provide feedback

We read every piece of feedback, and take your input very seriously.

Saved searches

Use saved searches to filter your results more quickly

Sign up
Appearance settings

Commit0ce6994

Browse files
authored
Merge pull request#621 from ifosch/traduccion-library-tokenize-po
Traducción de library/tokenize.po
2 parentsd0c3538 +723359e commit0ce6994

File tree

2 files changed

+107
-18
lines changed

2 files changed

+107
-18
lines changed

‎dictionaries/library_tokenize.txt

Lines changed: 1 addition & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1 @@
1+
tokenización

‎library/tokenize.po

Lines changed: 106 additions & 18 deletions
Original file line numberDiff line numberDiff line change
@@ -6,27 +6,29 @@
66
# Check https://github.com/PyCampES/python-docs-es/blob/3.8/TRANSLATORS to
77
# get the list of volunteers
88
#
9-
#,fuzzy
109
msgid ""
1110
msgstr ""
1211
"Project-Id-Version:Python 3.8\n"
1312
"Report-Msgid-Bugs-To:\n"
1413
"POT-Creation-Date:2020-05-05 12:54+0200\n"
15-
"PO-Revision-Date:YEAR-MO-DA HO:MI+ZONE\n"
16-
"Last-Translator:FULL NAME <EMAIL@ADDRESS>\n"
14+
"PO-Revision-Date:2020-07-25 21:23+0200\n"
1715
"Language-Team:python-doc-es\n"
1816
"MIME-Version:1.0\n"
19-
"Content-Type:text/plain; charset=utf-8\n"
17+
"Content-Type:text/plain; charset=UTF-8\n"
2018
"Content-Transfer-Encoding:8bit\n"
2119
"Generated-By:Babel 2.8.0\n"
20+
"Plural-Forms:nplurals=2; plural=(n != 1);\n"
21+
"Last-Translator:Ignasi Fosch <natx@y10k.ws>\n"
22+
"Language:es\n"
23+
"X-Generator:Poedit 2.3.1\n"
2224

2325
#:../Doc/library/tokenize.rst:2
2426
msgid":mod:`tokenize` --- Tokenizer for Python source"
25-
msgstr""
27+
msgstr":mod:`tokenize` --- Conversor a tokens para código Python"
2628

2729
#:../Doc/library/tokenize.rst:10
2830
msgid"**Source code:** :source:`Lib/tokenize.py`"
29-
msgstr""
31+
msgstr"**Código fuente:** :source:`Lib/tokenize.py`"
3032

3133
#:../Doc/library/tokenize.rst:14
3234
msgid""
@@ -35,6 +37,10 @@ msgid ""
3537
"tokens as well, making it useful for implementing\"pretty-printers\", "
3638
"including colorizers for on-screen displays."
3739
msgstr""
40+
"El módulo :mod:`tokenize` provee un analizador léxico para código fuente "
41+
"Python, implementado en Python. Este analizador también retorna comentarios "
42+
"como tokens, siendo útil para implementar *\"pretty-printers\"*, como "
43+
"*colorizers* para impresiones en pantalla."
3844

3945
#:../Doc/library/tokenize.rst:19
4046
msgid""
@@ -44,14 +50,19 @@ msgid ""
4450
"checking the ``exact_type`` property on the :term:`named tuple` returned "
4551
"from :func:`tokenize.tokenize`."
4652
msgstr""
53+
"Para simplificar el manejo de flujos de tokens, todos los tokens :ref:"
54+
"`operator <operators>` y :ref:`delimiter <delimiters>` y :data:`Ellipsis` se "
55+
"retorna usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
56+
"determinar usando la propiedad ``exact_type`` en la :term:`named tuple` "
57+
"retornada por :func:`tokenize.tokenize`."
4758

4859
#:../Doc/library/tokenize.rst:26
4960
msgid"Tokenizing Input"
50-
msgstr""
61+
msgstr"Convirtiendo la entrada en *tokens*"
5162

5263
#:../Doc/library/tokenize.rst:28
5364
msgid"The primary entry point is a :term:`generator`:"
54-
msgstr""
65+
msgstr"El punto de entrada principal es un :term:`generador`:"
5566

5667
#:../Doc/library/tokenize.rst:32
5768
msgid""
@@ -60,6 +71,10 @@ msgid ""
6071
"IOBase.readline` method of file objects. Each call to the function should "
6172
"return one line of input as bytes."
6273
msgstr""
74+
"El generador :func:`.tokenize` requiere un argumento, *readline*, que debe "
75+
"ser un objeto invocable que provee la misma interfaz que el método :meth:`io."
76+
"IOBase.readline` de los objetos archivos. Cada llamada a la función debe "
77+
"retornar una línea de entrada como bytes."
6378

6479
#:../Doc/library/tokenize.rst:37
6580
msgid""
@@ -71,6 +86,14 @@ msgid ""
7186
"is the *physical* line. The 5 tuple is returned as a :term:`named tuple` "
7287
"with the field names: ``type string start end line``."
7388
msgstr""
89+
"El generador produce una tupla con los siguientes 5 miembros: El tipo de "
90+
"token, la cadena del token, una tupla ``(srow, scol)`` de enteros "
91+
"especificando la fila y columna donde el token empieza en el código, una "
92+
"``(erow, ecol)`` de enteros especificando la fila y columna donde el token "
93+
"acaba en el código, y la línea en la que se encontró el token. La línea "
94+
"pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
95+
"retorna como una :term:`named tuple` con los campos: ``type string start end "
96+
"line``."
7497

7598
#:../Doc/library/tokenize.rst:46
7699
msgid""
@@ -79,57 +102,77 @@ msgid ""
79102
"tokens. For all other token types ``exact_type`` equals the named tuple "
80103
"``type`` field."
81104
msgstr""
105+
"La :term:`named tuple` retorna tiene una propiedad adicional llamada "
106+
"``exact_type`` que contiene el tipo de operador exacto para tokens :data:"
107+
"`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el valor "
108+
"del campo ``type`` de la tupla con su respectivo nombre."
82109

83110
#:../Doc/library/tokenize.rst:51
84111
msgid"Added support for named tuples."
85-
msgstr""
112+
msgstr"Añadido soporte para tuplas con nombre."
86113

87114
#:../Doc/library/tokenize.rst:54
88115
msgid"Added support for ``exact_type``."
89-
msgstr""
116+
msgstr"Añadido soporte para ``exact_type``."
90117

91118
#:../Doc/library/tokenize.rst:57
92119
msgid""
93120
":func:`.tokenize` determines the source encoding of the file by looking for "
94121
"a UTF-8 BOM or encoding cookie, according to :pep:`263`."
95122
msgstr""
123+
":func:`tokenize` determina la codificación del fichero buscando una marca "
124+
"BOM UTF-8 o una *cookie* de codificación, de acuerdo con :pep:`263`."
96125

97126
#:../Doc/library/tokenize.rst:62
98127
msgid"Tokenize a source reading unicode strings instead of bytes."
99128
msgstr""
129+
"Convertir a tokens una fuente leyendo cadenas unicode en lugar de bytes."
100130

101131
#:../Doc/library/tokenize.rst:64
102132
msgid""
103133
"Like :func:`.tokenize`, the *readline* argument is a callable returning a "
104134
"single line of input. However, :func:`generate_tokens` expects *readline* to "
105135
"return a str object rather than bytes."
106136
msgstr""
137+
"Como :func:`.tokenize`, el argumento *readline* es un invocable que retorna "
138+
"una sola línea de entrada. Sin embargo, :func:`generate_tokens` espera que "
139+
"*readline* devuelva un objeto *str* en lugar de *bytes*."
107140

108141
#:../Doc/library/tokenize.rst:68
109142
msgid""
110143
"The result is an iterator yielding named tuples, exactly like :func:`."
111144
"tokenize`. It does not yield an :data:`~token.ENCODING` token."
112145
msgstr""
146+
"El resultado es un iterador que produce tuplas con nombre, exactamente como :"
147+
"func:`.tokenize`. No produce un token :data:`~token.ENCODING`."
113148

114149
#:../Doc/library/tokenize.rst:71
115150
msgid""
116151
"All constants from the :mod:`token` module are also exported from :mod:"
117152
"`tokenize`."
118153
msgstr""
154+
"Todas las constantes del módulo :mod:`token` se exportan también desde :mod:"
155+
"`tokenize`."
119156

120157
#:../Doc/library/tokenize.rst:74
121158
msgid""
122159
"Another function is provided to reverse the tokenization process. This is "
123160
"useful for creating tools that tokenize a script, modify the token stream, "
124161
"and write back the modified script."
125162
msgstr""
163+
"Otra función se encarga de invertir el proceso de conversión. Esto es útil "
164+
"para crear herramientas que convierten a tokens un script, modificar el "
165+
"flujo de token, y escribir el script modificado."
126166

127167
#:../Doc/library/tokenize.rst:81
128168
msgid""
129169
"Converts tokens back into Python source code. The *iterable* must return "
130170
"sequences with at least two elements, the token type and the token string. "
131171
"Any additional sequence elements are ignored."
132172
msgstr""
173+
"Convierte los *tokens* de vuelta en código fuente Python. El *iterable* debe "
174+
"retornar secuencias con al menos dos elementos, el tipo de *token* y la "
175+
"cadena del *token*. Cualquier otro elemento de la secuencia es ignorado."
133176

134177
#:../Doc/library/tokenize.rst:85
135178
msgid""
@@ -139,32 +182,50 @@ msgid ""
139182
"token type and token string as the spacing between tokens (column positions) "
140183
"may change."
141184
msgstr""
185+
"El *script* reconstruido se retorna como una cadena simple. El resultado "
186+
"está garantizado de que se convierte en *tokens* de vuelta a la misma "
187+
"entrada, de modo que la conversión no tiene pérdida y que las conversiones "
188+
"de ida y de vuelta están aseguradas. La garantía aplica sólo al tipo y la "
189+
"cadena del *token*, ya que el espaciado entre *tokens* (posiciones de "
190+
"columna) pueden variar."
142191

143192
#:../Doc/library/tokenize.rst:91
144193
msgid""
145194
"It returns bytes, encoded using the :data:`~token.ENCODING` token, which is "
146195
"the first token sequence output by :func:`.tokenize`. If there is no "
147196
"encoding token in the input, it returns a str instead."
148197
msgstr""
198+
"Retorna bytes, codificados usando el token :data:`~token.ENCODING`, que es "
199+
"el primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
200+
"hay un token de codificación en la entrada, retorna una cadena."
149201

150202
#:../Doc/library/tokenize.rst:96
151203
msgid""
152204
":func:`.tokenize` needs to detect the encoding of source files it tokenizes. "
153205
"The function it uses to do this is available:"
154206
msgstr""
207+
":func:`.tokenize` necesita detectar la codificación de los ficheros fuente "
208+
"que convierte a tokens. La función que utiliza para hacer esto está "
209+
"disponible como:"
155210

156211
#:../Doc/library/tokenize.rst:101
157212
msgid""
158213
"The :func:`detect_encoding` function is used to detect the encoding that "
159214
"should be used to decode a Python source file. It requires one argument, "
160215
"readline, in the same way as the :func:`.tokenize` generator."
161216
msgstr""
217+
"La función :func:`detect_encoding` se usa para detectar la codificación que "
218+
"debería usarse al leer un fichero fuente Python. Requiere un argumento, "
219+
"*readline*, del mismo modo que el generador :func:`.tokenize`."
162220

163221
#:../Doc/library/tokenize.rst:105
164222
msgid""
165223
"It will call readline a maximum of twice, and return the encoding used (as a "
166224
"string) and a list of any lines (not decoded from bytes) it has read in."
167225
msgstr""
226+
"Llamará a *readline* un máximo de dos veces, retornando la codificación "
227+
"usada, como cadena, y una lista del resto de líneas leídas, no "
228+
"descodificadas de *bytes*."
168229

169230
#:../Doc/library/tokenize.rst:109
170231
msgid""
@@ -173,83 +234,103 @@ msgid ""
173234
"but disagree, a :exc:`SyntaxError` will be raised. Note that if the BOM is "
174235
"found, ``'utf-8-sig'`` will be returned as an encoding."
175236
msgstr""
237+
"Detecta la codificación a partir de la presencia de una marca BOM UTF-8 o "
238+
"una *cookie* de codificación, como se especifica en :pep:`263`. Si ambas "
239+
"están presentes pero en desacuerdo, se lanzará un :exc:`SyntaxError`. "
240+
"Resaltar que si se encuentra la marca BOM, se retornará ``'utf-8-sig'`` como "
241+
"codificación."
176242

177243
#:../Doc/library/tokenize.rst:114
178244
msgid""
179245
"If no encoding is specified, then the default of ``'utf-8'`` will be "
180246
"returned."
181247
msgstr""
248+
"Si no se especifica una codificación, por defecto se retornará ``'utf-8'``."
182249

183250
#:../Doc/library/tokenize.rst:117
184251
msgid""
185252
"Use :func:`.open` to open Python source files: it uses :func:"
186253
"`detect_encoding` to detect the file encoding."
187254
msgstr""
255+
"Usa :func:`.open` para abrir ficheros fuente Python: Ésta utiliza :func:"
256+
"`detect_encoding` para detectar la codificación del fichero."
188257

189258
#:../Doc/library/tokenize.rst:123
190259
msgid""
191260
"Open a file in read only mode using the encoding detected by :func:"
192261
"`detect_encoding`."
193262
msgstr""
263+
"Abrir un fichero en modo sólo lectura usando la codificación detectada por :"
264+
"func:`detect_encoding`."
194265

195266
#:../Doc/library/tokenize.rst:130
196267
msgid""
197268
"Raised when either a docstring or expression that may be split over several "
198269
"lines is not completed anywhere in the file, for example::"
199270
msgstr""
271+
"Lanzada cuando una expresión o docstring que puede separarse en más líneas "
272+
"no está completa en el fichero, por ejemplo::"
200273

201274
#:../Doc/library/tokenize.rst:136
202275
msgid"or::"
203-
msgstr""
276+
msgstr"o::"
204277

205278
#:../Doc/library/tokenize.rst:142
206279
msgid""
207280
"Note that unclosed single-quoted strings do not cause an error to be raised. "
208281
"They are tokenized as :data:`~token.ERRORTOKEN`, followed by the "
209282
"tokenization of their contents."
210283
msgstr""
284+
"Destacar que cadenas con comillas simples sin finalizar no lanzan un error. "
285+
"Se convertirán en tokens como :data:`~token.ERRORTOKEN`, seguido de la "
286+
"conversión de su contenido."
211287

212288
#:../Doc/library/tokenize.rst:150
213289
msgid"Command-Line Usage"
214-
msgstr""
290+
msgstr"Uso como línea de comandos"
215291

216292
#:../Doc/library/tokenize.rst:154
217293
msgid""
218294
"The :mod:`tokenize` module can be executed as a script from the command "
219295
"line. It is as simple as:"
220296
msgstr""
297+
"El módulo :mod:`tokenize` se puede ejecutar como script desde la línea de "
298+
"comandos. Es tan simple como:"
221299

222300
#:../Doc/library/tokenize.rst:161
223301
msgid"The following options are accepted:"
224-
msgstr""
302+
msgstr"Se aceptan las siguientes opciones:"
225303

226304
#:../Doc/library/tokenize.rst:167
227305
msgid"show this help message and exit"
228-
msgstr""
306+
msgstr"muestra el mensaje de ayuda y sale"
229307

230308
#:../Doc/library/tokenize.rst:171
231309
msgid"display token names using the exact type"
232-
msgstr""
310+
msgstr"muestra los nombres de token usando el tipo exacto"
233311

234312
#:../Doc/library/tokenize.rst:173
235313
msgid""
236314
"If :file:`filename.py` is specified its contents are tokenized to stdout. "
237315
"Otherwise, tokenization is performed on stdin."
238316
msgstr""
317+
"Si se especifica :file:`filename.py`, se convierte su contenido a tokens por "
318+
"la salida estándar. En otro caso, se convierte la entrada estándar."
239319

240320
#:../Doc/library/tokenize.rst:177
241321
msgid"Examples"
242-
msgstr""
322+
msgstr"Ejemplos"
243323

244324
#:../Doc/library/tokenize.rst:179
245325
msgid""
246326
"Example of a script rewriter that transforms float literals into Decimal "
247327
"objects::"
248328
msgstr""
329+
"Ejemplo de un script que transforma literales float en objetos Decimal::"
249330

250331
#:../Doc/library/tokenize.rst:221
251332
msgid"Example of tokenizing from the command line. The script::"
252-
msgstr""
333+
msgstr"Ejemplo de conversión desde la línea de comandos. El *script*::"
253334

254335
#:../Doc/library/tokenize.rst:228
255336
msgid""
@@ -258,18 +339,25 @@ msgid ""
258339
"column is the name of the token, and the final column is the value of the "
259340
"token (if any)"
260341
msgstr""
342+
"se convertirá en la salida siguiente, donde la primera columna es el rango "
343+
"de coordenadas línea/columna donde se encuentra el token, la segunda columna "
344+
"es el nombre del token, y la última columna es el valor del token, si lo hay"
261345

262346
#:../Doc/library/tokenize.rst:256
263347
msgid""
264348
"The exact token type names can be displayed using the :option:`-e` option:"
265349
msgstr""
350+
"Los nombres de tipos de token exactos se pueden mostrar con la opción :"
351+
"option:`-e`:"
266352

267353
#:../Doc/library/tokenize.rst:282
268354
msgid""
269355
"Example of tokenizing a file programmatically, reading unicode strings "
270356
"instead of bytes with :func:`generate_tokens`::"
271357
msgstr""
358+
"Ejemplo de tokenización de un fichero programáticamente, leyendo cadenas "
359+
"unicode en lugar de *bytes* con :func:`generate_tokens`::"
272360

273361
#:../Doc/library/tokenize.rst:292
274362
msgid"Or reading bytes directly with :func:`.tokenize`::"
275-
msgstr""
363+
msgstr"O leyendo *bytes* directamente con :func:`.tokenize`::"

0 commit comments

Comments
 (0)

[8]ページ先頭

©2009-2025 Movatter.jp