@@ -25,7 +25,7 @@ msgstr ""
25
25
26
26
#: ../Doc/library/tokenize.rst:2
27
27
msgid ":mod:`tokenize` --- Tokenizer for Python source"
28
- msgstr ":mod:`tokenize` --- Conversor a* tokens* para código Python"
28
+ msgstr ":mod:`tokenize` --- Conversor a tokens para código Python"
29
29
30
30
#: ../Doc/library/tokenize.rst:10
31
31
msgid "**Source code:** :source:`Lib/tokenize.py`"
@@ -39,8 +39,8 @@ msgid ""
39
39
"including colorizers for on-screen displays."
40
40
msgstr ""
41
41
"El módulo :mod:`tokenize` provee un analizador léxico para código fuente "
42
- "Python, implementado en Python. Este analizador tambiéndevuelve comentarios "
43
- "como* tokens* , siendo útil para implementar *\" pretty-printers\" *, como "
42
+ "Python, implementado en Python. Este analizador tambiénretorna comentarios "
43
+ "como tokens, siendo útil para implementar *\" pretty-printers\" *, como "
44
44
"*colorizers* para impresiones en pantalla."
45
45
46
46
#: ../Doc/library/tokenize.rst:19
@@ -51,11 +51,11 @@ msgid ""
51
51
"checking the ``exact_type`` property on the :term:`named tuple` returned "
52
52
"from :func:`tokenize.tokenize`."
53
53
msgstr ""
54
- "Para simplificar el manejo de flujos de* tokens* , todos los* tokens* :ref:"
54
+ "Para simplificar el manejo de flujos de tokens, todos los tokens :ref:"
55
55
"`operator <operators>` y :ref:`delimiter <delimiters>` y :data:`Ellipsis` se "
56
- "devuelve usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
56
+ "retorna usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
57
57
"determinar usando la propiedad ``exact_type`` en la :term:`named tuple` "
58
- "devuelta por :func:`tokenize.tokenize`."
58
+ "retornada por :func:`tokenize.tokenize`."
59
59
60
60
#: ../Doc/library/tokenize.rst:26
61
61
msgid "Tokenizing Input"
@@ -74,8 +74,8 @@ msgid ""
74
74
msgstr ""
75
75
"El generador :func:`.tokenize` requiere un argumento, *readline*, que debe "
76
76
"ser un objeto invocable que provee la misma interfaz que el método :meth:`io."
77
- "IOBase.readline` de los objetos*file* . Cada llamada a la función debe "
78
- "devolver una línea de entrada como bytes."
77
+ "IOBase.readline` de los objetosarchivos . Cada llamada a la función debe "
78
+ "retornar una línea de entrada como bytes."
79
79
80
80
#: ../Doc/library/tokenize.rst:37
81
81
msgid ""
@@ -88,12 +88,12 @@ msgid ""
88
88
"with the field names: ``type string start end line``."
89
89
msgstr ""
90
90
"El generador produce una tupla con los siguientes 5 miembros: El tipo de "
91
- "* token* , la cadena del* token* , una tupla ``(srow, scol)`` de enteros "
92
- "especificando la fila y columna donde el* token* empieza en el código, una "
93
- "``(erow, ecol)`` de enteros especificando la fila y columna donde el* token* "
94
- "acaba en el código, y la línea en la que se encontró el* token* . La línea "
91
+ "token, la cadena del token, una tupla ``(srow, scol)`` de enteros "
92
+ "especificando la fila y columna donde el token empieza en el código, una "
93
+ "``(erow, ecol)`` de enteros especificando la fila y columna donde el token "
94
+ "acaba en el código, y la línea en la que se encontró el token. La línea "
95
95
"pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
96
- "devuelve como una :term:`named tuple` con los campos: ``type string start "
96
+ "retorna como una :term:`named tuple` con los campos: ``type string start "
97
97
"end line``."
98
98
99
99
#: ../Doc/library/tokenize.rst:46
@@ -103,9 +103,9 @@ msgid ""
103
103
"tokens. For all other token types ``exact_type`` equals the named tuple "
104
104
"``type`` field."
105
105
msgstr ""
106
- "La :term:`named tuple`devuelta tiene una propiedad adicional llamada "
107
- "``exact_type`` que contiene el tipo de operador exacto para* tokens* :data:"
108
- "`~token.OP`. Para todos los otros tipos de* token* , ``exact_type`` es el "
106
+ "La :term:`named tuple`retorna tiene una propiedad adicional llamada "
107
+ "``exact_type`` que contiene el tipo de operador exacto para tokens :data:"
108
+ "`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el "
109
109
"valor del campo ``type`` de la tupla con su respectivo nombre."
110
110
111
111
#: ../Doc/library/tokenize.rst:51
@@ -127,15 +127,15 @@ msgstr ""
127
127
#: ../Doc/library/tokenize.rst:62
128
128
msgid "Tokenize a source reading unicode strings instead of bytes."
129
129
msgstr ""
130
- "Convertir a* tokens* una fuente leyendo cadenas unicode en lugar de bytes."
130
+ "Convertir a tokens una fuente leyendo cadenas unicode en lugar de bytes."
131
131
132
132
#: ../Doc/library/tokenize.rst:64
133
133
msgid ""
134
134
"Like :func:`.tokenize`, the *readline* argument is a callable returning a "
135
135
"single line of input. However, :func:`generate_tokens` expects *readline* to "
136
136
"return a str object rather than bytes."
137
137
msgstr ""
138
- "Como :func:`.tokenize`, el argumento *readline* es un invocable quedevuelve "
138
+ "Como :func:`.tokenize`, el argumento *readline* es un invocable queretorna "
139
139
"una sola línea de entrada. Sin embargo, :func:`generate_tokens` espera que "
140
140
"*readline* devuelva un objeto *str* en lugar de *bytes*."
141
141
@@ -145,7 +145,7 @@ msgid ""
145
145
"tokenize`. It does not yield an :data:`~token.ENCODING` token."
146
146
msgstr ""
147
147
"El resultado es un iterador que produce tuplas con nombre, exactamente como :"
148
- "func:`.tokenize`. No produce un* token* :data:`~token.ENCODING`."
148
+ "func:`.tokenize`. No produce un token :data:`~token.ENCODING`."
149
149
150
150
#: ../Doc/library/tokenize.rst:71
151
151
msgid ""
@@ -172,7 +172,7 @@ msgid ""
172
172
"Any additional sequence elements are ignored."
173
173
msgstr ""
174
174
"Convierte los *tokens* de vuelta en código fuente Python. El *iterable* debe "
175
- "devolver secuencias con al menos dos elementos, el tipo de *token* y la "
175
+ "retornar secuencias con al menos dos elementos, el tipo de *token* y la "
176
176
"cadena del *token*. Cualquier otro elemento de la secuencia es ignorado."
177
177
178
178
#: ../Doc/library/tokenize.rst:85
@@ -183,7 +183,7 @@ msgid ""
183
183
"token type and token string as the spacing between tokens (column positions) "
184
184
"may change."
185
185
msgstr ""
186
- "El *script* reconstruido sedevuelve como una cadena simple. El resultado "
186
+ "El *script* reconstruido seretorna como una cadena simple. El resultado "
187
187
"está garantizado de que se convierte en *tokens* de vuelta a la misma "
188
188
"entrada, de modo que la conversión no tiene pérdida y que las conversiones "
189
189
"de ida y de vuelta están aseguradas. La garantía aplica sólo al tipo y la "
@@ -206,7 +206,7 @@ msgid ""
206
206
"The function it uses to do this is available:"
207
207
msgstr ""
208
208
":func:`.tokenize` necesita detectar la codificación de los ficheros fuente "
209
- "que convierte a* tokens* . La función que utiliza para hacer esto está "
209
+ "que convierte a tokens. La función que utiliza para hacer esto está "
210
210
"disponible como:"
211
211
212
212
#: ../Doc/library/tokenize.rst:101
@@ -224,7 +224,7 @@ msgid ""
224
224
"It will call readline a maximum of twice, and return the encoding used (as a "
225
225
"string) and a list of any lines (not decoded from bytes) it has read in."
226
226
msgstr ""
227
- "Llamará a *readline* un máximo de dos veces,devolviendo la codificación "
227
+ "Llamará a *readline* un máximo de dos veces,retornando la codificación "
228
228
"usada, como cadena, y una lista del resto de líneas leídas, no "
229
229
"descodificadas de *bytes*."
230
230
@@ -238,15 +238,15 @@ msgstr ""
238
238
"Detecta la codificación a partir de la presencia de una marca BOM UTF-8 o "
239
239
"una *cookie* de codificación, como se especifica en :pep:`263`. Si ambas "
240
240
"están presentes pero en desacuerdo, se lanzará un :exc:`SyntaxError`. "
241
- "Resaltar que si se encuentra la marca BOM, sedevolverá ``'utf-8-sig'`` como "
241
+ "Resaltar que si se encuentra la marca BOM, seretornará ``'utf-8-sig'`` como "
242
242
"codificación."
243
243
244
244
#: ../Doc/library/tokenize.rst:114
245
245
msgid ""
246
246
"If no encoding is specified, then the default of ``'utf-8'`` will be "
247
247
"returned."
248
248
msgstr ""
249
- "Si no se especifica una codificación, por defecto sedevolverá ``'utf-8'``."
249
+ "Si no se especifica una codificación, por defecto seretornará ``'utf-8'``."
250
250
251
251
#: ../Doc/library/tokenize.rst:117
252
252
msgid ""
@@ -269,7 +269,7 @@ msgid ""
269
269
"Raised when either a docstring or expression that may be split over several "
270
270
"lines is not completed anywhere in the file, for example::"
271
271
msgstr ""
272
- "Lanzada cuando una expresión o* docstring* que puede separarse en más líneas "
272
+ "Lanzada cuando una expresión o docstring que puede separarse en más líneas "
273
273
"no está completa en el fichero, por ejemplo::"
274
274
275
275
#: ../Doc/library/tokenize.rst:136
@@ -283,7 +283,7 @@ msgid ""
283
283
"tokenization of their contents."
284
284
msgstr ""
285
285
"Destacar que cadenas con comillas simples sin finalizar no lanzan un error. "
286
- "Se convertirán en* tokens* como :data:`~token.ERRORTOKEN`, seguido de la "
286
+ "Se convertirán en tokens como :data:`~token.ERRORTOKEN`, seguido de la "
287
287
"conversión de su contenido."
288
288
289
289
#: ../Doc/library/tokenize.rst:150
@@ -295,7 +295,7 @@ msgid ""
295
295
"The :mod:`tokenize` module can be executed as a script from the command "
296
296
"line. It is as simple as:"
297
297
msgstr ""
298
- "El módulo :mod:`tokenize` se puede ejecutar como* script* desde la línea de "
298
+ "El módulo :mod:`tokenize` se puede ejecutar como script desde la línea de "
299
299
"comandos. Es tan simple como:"
300
300
301
301
#: ../Doc/library/tokenize.rst:161
@@ -315,7 +315,7 @@ msgid ""
315
315
"If :file:`filename.py` is specified its contents are tokenized to stdout. "
316
316
"Otherwise, tokenization is performed on stdin."
317
317
msgstr ""
318
- "Si se especifica :file:`filename.py`, se convierte su contenido a* tokens* "
318
+ "Si se especifica :file:`filename.py`, se convierte su contenido a tokens "
319
319
"por la salida estándar. En otro caso, se convierte la entrada estándar."
320
320
321
321
#: ../Doc/library/tokenize.rst:177
@@ -341,15 +341,15 @@ msgid ""
341
341
"token (if any)"
342
342
msgstr ""
343
343
"se convertirá en la salida siguiente, donde la primera columna es el rango "
344
- "de coordenadas línea/columna donde se encuentra el* token* , la segunda "
345
- "columna es el nombre del* token* , y la última columna es el valor del "
346
- "* token* , si lo hay"
344
+ "de coordenadas línea/columna donde se encuentra el token, la segunda "
345
+ "columna es el nombre del token, y la última columna es el valor del "
346
+ "token, si lo hay"
347
347
348
348
#: ../Doc/library/tokenize.rst:256
349
349
msgid ""
350
350
"The exact token type names can be displayed using the :option:`-e` option:"
351
351
msgstr ""
352
- "Los nombres de tipos de* token* exactos se pueden mostrar con la opción :"
352
+ "Los nombres de tipos de token exactos se pueden mostrar con la opción :"
353
353
"option:`-e`:"
354
354
355
355
#: ../Doc/library/tokenize.rst:282