Movatterモバイル変換


[0]ホーム

URL:


Skip to content

Navigation Menu

Sign in
Appearance settings

Search code, repositories, users, issues, pull requests...

Provide feedback

We read every piece of feedback, and take your input very seriously.

Saved searches

Use saved searches to filter your results more quickly

Sign up
Appearance settings

Commit904be6e

Browse files
ifoschcmaureir
andauthored
Apply suggestions from code review
Co-authored-by: Cristián Maureira-Fredes <cmaureir@users.noreply.github.com>
1 parent6321030 commit904be6e

File tree

1 file changed

+33
-33
lines changed

1 file changed

+33
-33
lines changed

‎library/tokenize.po

Lines changed: 33 additions & 33 deletions
Original file line numberDiff line numberDiff line change
@@ -25,7 +25,7 @@ msgstr ""
2525

2626
#:../Doc/library/tokenize.rst:2
2727
msgid":mod:`tokenize` --- Tokenizer for Python source"
28-
msgstr":mod:`tokenize` --- Conversor a*tokens* para código Python"
28+
msgstr":mod:`tokenize` --- Conversor a tokens para código Python"
2929

3030
#:../Doc/library/tokenize.rst:10
3131
msgid"**Source code:** :source:`Lib/tokenize.py`"
@@ -39,8 +39,8 @@ msgid ""
3939
"including colorizers for on-screen displays."
4040
msgstr""
4141
"El módulo :mod:`tokenize` provee un analizador léxico para código fuente "
42-
"Python, implementado en Python. Este analizador tambiéndevuelve comentarios "
43-
"como*tokens*, siendo útil para implementar *\"pretty-printers\"*, como "
42+
"Python, implementado en Python. Este analizador tambiénretorna comentarios "
43+
"como tokens, siendo útil para implementar *\"pretty-printers\"*, como "
4444
"*colorizers* para impresiones en pantalla."
4545

4646
#:../Doc/library/tokenize.rst:19
@@ -51,11 +51,11 @@ msgid ""
5151
"checking the ``exact_type`` property on the :term:`named tuple` returned "
5252
"from :func:`tokenize.tokenize`."
5353
msgstr""
54-
"Para simplificar el manejo de flujos de*tokens*, todos los*tokens* :ref:"
54+
"Para simplificar el manejo de flujos de tokens, todos los tokens :ref:"
5555
"`operator <operators>` y :ref:`delimiter <delimiters>` y :data:`Ellipsis` se "
56-
"devuelve usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
56+
"retorna usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
5757
"determinar usando la propiedad ``exact_type`` en la :term:`named tuple` "
58-
"devuelta por :func:`tokenize.tokenize`."
58+
"retornada por :func:`tokenize.tokenize`."
5959

6060
#:../Doc/library/tokenize.rst:26
6161
msgid"Tokenizing Input"
@@ -74,8 +74,8 @@ msgid ""
7474
msgstr""
7575
"El generador :func:`.tokenize` requiere un argumento, *readline*, que debe "
7676
"ser un objeto invocable que provee la misma interfaz que el método :meth:`io."
77-
"IOBase.readline` de los objetos*file*. Cada llamada a la función debe "
78-
"devolver una línea de entrada como bytes."
77+
"IOBase.readline` de los objetosarchivos. Cada llamada a la función debe "
78+
"retornar una línea de entrada como bytes."
7979

8080
#:../Doc/library/tokenize.rst:37
8181
msgid""
@@ -88,12 +88,12 @@ msgid ""
8888
"with the field names: ``type string start end line``."
8989
msgstr""
9090
"El generador produce una tupla con los siguientes 5 miembros: El tipo de "
91-
"*token*, la cadena del*token*, una tupla ``(srow, scol)`` de enteros "
92-
"especificando la fila y columna donde el*token* empieza en el código, una "
93-
"``(erow, ecol)`` de enteros especificando la fila y columna donde el*token* "
94-
"acaba en el código, y la línea en la que se encontró el*token*. La línea "
91+
"token, la cadena del token, una tupla ``(srow, scol)`` de enteros "
92+
"especificando la fila y columna donde el token empieza en el código, una "
93+
"``(erow, ecol)`` de enteros especificando la fila y columna donde el token "
94+
"acaba en el código, y la línea en la que se encontró el token. La línea "
9595
"pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
96-
"devuelve como una :term:`named tuple` con los campos: ``type string start "
96+
"retorna como una :term:`named tuple` con los campos: ``type string start "
9797
"end line``."
9898

9999
#:../Doc/library/tokenize.rst:46
@@ -103,9 +103,9 @@ msgid ""
103103
"tokens. For all other token types ``exact_type`` equals the named tuple "
104104
"``type`` field."
105105
msgstr""
106-
"La :term:`named tuple`devuelta tiene una propiedad adicional llamada "
107-
"``exact_type`` que contiene el tipo de operador exacto para*tokens* :data:"
108-
"`~token.OP`. Para todos los otros tipos de*token*, ``exact_type`` es el "
106+
"La :term:`named tuple`retorna tiene una propiedad adicional llamada "
107+
"``exact_type`` que contiene el tipo de operador exacto para tokens :data:"
108+
"`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el "
109109
"valor del campo ``type`` de la tupla con su respectivo nombre."
110110

111111
#:../Doc/library/tokenize.rst:51
@@ -127,15 +127,15 @@ msgstr ""
127127
#:../Doc/library/tokenize.rst:62
128128
msgid"Tokenize a source reading unicode strings instead of bytes."
129129
msgstr""
130-
"Convertir a*tokens* una fuente leyendo cadenas unicode en lugar de bytes."
130+
"Convertir a tokens una fuente leyendo cadenas unicode en lugar de bytes."
131131

132132
#:../Doc/library/tokenize.rst:64
133133
msgid""
134134
"Like :func:`.tokenize`, the *readline* argument is a callable returning a "
135135
"single line of input. However, :func:`generate_tokens` expects *readline* to "
136136
"return a str object rather than bytes."
137137
msgstr""
138-
"Como :func:`.tokenize`, el argumento *readline* es un invocable quedevuelve "
138+
"Como :func:`.tokenize`, el argumento *readline* es un invocable queretorna "
139139
"una sola línea de entrada. Sin embargo, :func:`generate_tokens` espera que "
140140
"*readline* devuelva un objeto *str* en lugar de *bytes*."
141141

@@ -145,7 +145,7 @@ msgid ""
145145
"tokenize`. It does not yield an :data:`~token.ENCODING` token."
146146
msgstr""
147147
"El resultado es un iterador que produce tuplas con nombre, exactamente como :"
148-
"func:`.tokenize`. No produce un*token* :data:`~token.ENCODING`."
148+
"func:`.tokenize`. No produce un token :data:`~token.ENCODING`."
149149

150150
#:../Doc/library/tokenize.rst:71
151151
msgid""
@@ -172,7 +172,7 @@ msgid ""
172172
"Any additional sequence elements are ignored."
173173
msgstr""
174174
"Convierte los *tokens* de vuelta en código fuente Python. El *iterable* debe "
175-
"devolver secuencias con al menos dos elementos, el tipo de *token* y la "
175+
"retornar secuencias con al menos dos elementos, el tipo de *token* y la "
176176
"cadena del *token*. Cualquier otro elemento de la secuencia es ignorado."
177177

178178
#:../Doc/library/tokenize.rst:85
@@ -183,7 +183,7 @@ msgid ""
183183
"token type and token string as the spacing between tokens (column positions) "
184184
"may change."
185185
msgstr""
186-
"El *script* reconstruido sedevuelve como una cadena simple. El resultado "
186+
"El *script* reconstruido seretorna como una cadena simple. El resultado "
187187
"está garantizado de que se convierte en *tokens* de vuelta a la misma "
188188
"entrada, de modo que la conversión no tiene pérdida y que las conversiones "
189189
"de ida y de vuelta están aseguradas. La garantía aplica sólo al tipo y la "
@@ -206,7 +206,7 @@ msgid ""
206206
"The function it uses to do this is available:"
207207
msgstr""
208208
":func:`.tokenize` necesita detectar la codificación de los ficheros fuente "
209-
"que convierte a*tokens*. La función que utiliza para hacer esto está "
209+
"que convierte a tokens. La función que utiliza para hacer esto está "
210210
"disponible como:"
211211

212212
#:../Doc/library/tokenize.rst:101
@@ -224,7 +224,7 @@ msgid ""
224224
"It will call readline a maximum of twice, and return the encoding used (as a "
225225
"string) and a list of any lines (not decoded from bytes) it has read in."
226226
msgstr""
227-
"Llamará a *readline* un máximo de dos veces,devolviendo la codificación "
227+
"Llamará a *readline* un máximo de dos veces,retornando la codificación "
228228
"usada, como cadena, y una lista del resto de líneas leídas, no "
229229
"descodificadas de *bytes*."
230230

@@ -238,15 +238,15 @@ msgstr ""
238238
"Detecta la codificación a partir de la presencia de una marca BOM UTF-8 o "
239239
"una *cookie* de codificación, como se especifica en :pep:`263`. Si ambas "
240240
"están presentes pero en desacuerdo, se lanzará un :exc:`SyntaxError`. "
241-
"Resaltar que si se encuentra la marca BOM, sedevolverá ``'utf-8-sig'`` como "
241+
"Resaltar que si se encuentra la marca BOM, seretornará ``'utf-8-sig'`` como "
242242
"codificación."
243243

244244
#:../Doc/library/tokenize.rst:114
245245
msgid""
246246
"If no encoding is specified, then the default of ``'utf-8'`` will be "
247247
"returned."
248248
msgstr""
249-
"Si no se especifica una codificación, por defecto sedevolverá ``'utf-8'``."
249+
"Si no se especifica una codificación, por defecto seretornará ``'utf-8'``."
250250

251251
#:../Doc/library/tokenize.rst:117
252252
msgid""
@@ -269,7 +269,7 @@ msgid ""
269269
"Raised when either a docstring or expression that may be split over several "
270270
"lines is not completed anywhere in the file, for example::"
271271
msgstr""
272-
"Lanzada cuando una expresión o*docstring* que puede separarse en más líneas "
272+
"Lanzada cuando una expresión o docstring que puede separarse en más líneas "
273273
"no está completa en el fichero, por ejemplo::"
274274

275275
#:../Doc/library/tokenize.rst:136
@@ -283,7 +283,7 @@ msgid ""
283283
"tokenization of their contents."
284284
msgstr""
285285
"Destacar que cadenas con comillas simples sin finalizar no lanzan un error. "
286-
"Se convertirán en*tokens* como :data:`~token.ERRORTOKEN`, seguido de la "
286+
"Se convertirán en tokens como :data:`~token.ERRORTOKEN`, seguido de la "
287287
"conversión de su contenido."
288288

289289
#:../Doc/library/tokenize.rst:150
@@ -295,7 +295,7 @@ msgid ""
295295
"The :mod:`tokenize` module can be executed as a script from the command "
296296
"line. It is as simple as:"
297297
msgstr""
298-
"El módulo :mod:`tokenize` se puede ejecutar como*script* desde la línea de "
298+
"El módulo :mod:`tokenize` se puede ejecutar como script desde la línea de "
299299
"comandos. Es tan simple como:"
300300

301301
#:../Doc/library/tokenize.rst:161
@@ -315,7 +315,7 @@ msgid ""
315315
"If :file:`filename.py` is specified its contents are tokenized to stdout. "
316316
"Otherwise, tokenization is performed on stdin."
317317
msgstr""
318-
"Si se especifica :file:`filename.py`, se convierte su contenido a*tokens* "
318+
"Si se especifica :file:`filename.py`, se convierte su contenido a tokens "
319319
"por la salida estándar. En otro caso, se convierte la entrada estándar."
320320

321321
#:../Doc/library/tokenize.rst:177
@@ -341,15 +341,15 @@ msgid ""
341341
"token (if any)"
342342
msgstr""
343343
"se convertirá en la salida siguiente, donde la primera columna es el rango "
344-
"de coordenadas línea/columna donde se encuentra el*token*, la segunda "
345-
"columna es el nombre del*token*, y la última columna es el valor del "
346-
"*token*, si lo hay"
344+
"de coordenadas línea/columna donde se encuentra el token, la segunda "
345+
"columna es el nombre del token, y la última columna es el valor del "
346+
"token, si lo hay"
347347

348348
#:../Doc/library/tokenize.rst:256
349349
msgid""
350350
"The exact token type names can be displayed using the :option:`-e` option:"
351351
msgstr""
352-
"Los nombres de tipos de*token* exactos se pueden mostrar con la opción :"
352+
"Los nombres de tipos de token exactos se pueden mostrar con la opción :"
353353
"option:`-e`:"
354354

355355
#:../Doc/library/tokenize.rst:282

0 commit comments

Comments
 (0)

[8]ページ先頭

©2009-2025 Movatter.jp