Movatterモバイル変換


[0]ホーム

URL:


Skip to content

Navigation Menu

Sign in
Appearance settings

Search code, repositories, users, issues, pull requests...

Provide feedback

We read every piece of feedback, and take your input very seriously.

Saved searches

Use saved searches to filter your results more quickly

Sign up
Appearance settings

Commitb54ddea

Browse files
committed
Traducción de library/tokenize.po
1 parent2a50b46 commitb54ddea

File tree

1 file changed

+107
-17
lines changed

1 file changed

+107
-17
lines changed

‎library/tokenize.po

Lines changed: 107 additions & 17 deletions
Original file line numberDiff line numberDiff line change
@@ -12,21 +12,24 @@ msgstr ""
1212
"Project-Id-Version:Python 3.8\n"
1313
"Report-Msgid-Bugs-To:\n"
1414
"POT-Creation-Date:2020-05-05 12:54+0200\n"
15-
"PO-Revision-Date:YEAR-MO-DA HO:MI+ZONE\n"
16-
"Last-Translator:FULL NAME <EMAIL@ADDRESS>\n"
15+
"PO-Revision-Date:2020-07-25 18:56+0200\n"
1716
"Language-Team:python-doc-es\n"
1817
"MIME-Version:1.0\n"
19-
"Content-Type:text/plain; charset=utf-8\n"
18+
"Content-Type:text/plain; charset=UTF-8\n"
2019
"Content-Transfer-Encoding:8bit\n"
2120
"Generated-By:Babel 2.8.0\n"
21+
"Plural-Forms:nplurals=2; plural=(n != 1);\n"
22+
"Last-Translator:Ignasi Fosch <natx@y10k.ws>\n"
23+
"Language:es\n"
24+
"X-Generator:Poedit 2.3.1\n"
2225

2326
#:../Doc/library/tokenize.rst:2
2427
msgid":mod:`tokenize` --- Tokenizer for Python source"
25-
msgstr""
28+
msgstr":mod:`tokenize` --- Tokenizador para código Python"
2629

2730
#:../Doc/library/tokenize.rst:10
2831
msgid"**Source code:** :source:`Lib/tokenize.py`"
29-
msgstr""
32+
msgstr"**Código fuente:** :source:`Lib/tokenize.py`"
3033

3134
#:../Doc/library/tokenize.rst:14
3235
msgid""
@@ -35,6 +38,10 @@ msgid ""
3538
"tokens as well, making it useful for implementing\"pretty-printers\", "
3639
"including colorizers for on-screen displays."
3740
msgstr""
41+
"El módulo :mod:`tokenize` provee un analizador léxico para código fuente "
42+
"Python, implementado en Python. Este analizador también devuelve comentarios "
43+
"como *tokens*, siendo útil para implementar *\"pretty-printers\"*, como "
44+
"*colorizers* para impresiones en pantalla."
3845

3946
#:../Doc/library/tokenize.rst:19
4047
msgid""
@@ -44,14 +51,19 @@ msgid ""
4451
"checking the ``exact_type`` property on the :term:`named tuple` returned "
4552
"from :func:`tokenize.tokenize`."
4653
msgstr""
54+
"Para simplificar el manejo de flujos de *tokens*, todos los *tokens* :ref:"
55+
"`operator <operators>` y :ref:`delimiter <delimiters>` y :data:`Ellipsis` se "
56+
"devuelve usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
57+
"determinar usando la propiedad ``exact_type`` en la :term:`named tuple` "
58+
"devuelta por :func:`tokenize.tokenize`."
4759

4860
#:../Doc/library/tokenize.rst:26
4961
msgid"Tokenizing Input"
50-
msgstr""
62+
msgstr"Convirtiendo la entrada en *tokens*"
5163

5264
#:../Doc/library/tokenize.rst:28
5365
msgid"The primary entry point is a :term:`generator`:"
54-
msgstr""
66+
msgstr"El punto de entrada principal es un :term:`generador`:"
5567

5668
#:../Doc/library/tokenize.rst:32
5769
msgid""
@@ -60,6 +72,10 @@ msgid ""
6072
"IOBase.readline` method of file objects. Each call to the function should "
6173
"return one line of input as bytes."
6274
msgstr""
75+
"El generador :func:`.tokenize` requiere un argumento, *readline*, que debe "
76+
"ser un objeto invocable que provee la misma interfaz que el método :meth:`io."
77+
"IOBase.readline` de los objetos *file*. Cada llamada a la función debe "
78+
"devolver una línea de entrada como bytes."
6379

6480
#:../Doc/library/tokenize.rst:37
6581
msgid""
@@ -71,6 +87,14 @@ msgid ""
7187
"is the *physical* line. The 5 tuple is returned as a :term:`named tuple` "
7288
"with the field names: ``type string start end line``."
7389
msgstr""
90+
"El generador produce una tupla con los siguientes 5 miembros: El tipo de "
91+
"*token*, la cadena del *token*, una tupla ``(srow, scol)`` de enteros "
92+
"especificando la fila y columna donde el *token* empieza en el código, una "
93+
"``(erow, ecol)`` de enteros especificando la fila y columna donde el *token* "
94+
"acaba en el código, y la línea en la que se encontró el *token*. La línea "
95+
"pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
96+
"devuelve como una :term:`named tuple` con los campos: ``type string start "
97+
"end line``."
7498

7599
#:../Doc/library/tokenize.rst:46
76100
msgid""
@@ -79,57 +103,77 @@ msgid ""
79103
"tokens. For all other token types ``exact_type`` equals the named tuple "
80104
"``type`` field."
81105
msgstr""
106+
"La :term:`named tuple` devuelta tiene una propiedad adicional llamada "
107+
"``exact_type`` que contiene el tipo de operador exacto para *tokens* :data:"
108+
"`~token.OP`. Para todos los otros tipos de *token*, ``exact_type`` es el "
109+
"valor del campo ``type`` de la tupla con su respectivo nombre."
82110

83111
#:../Doc/library/tokenize.rst:51
84112
msgid"Added support for named tuples."
85-
msgstr""
113+
msgstr"Añadido soporte para tuplas con nombre."
86114

87115
#:../Doc/library/tokenize.rst:54
88116
msgid"Added support for ``exact_type``."
89-
msgstr""
117+
msgstr"Añadido soporte para ``exact_type``."
90118

91119
#:../Doc/library/tokenize.rst:57
92120
msgid""
93121
":func:`.tokenize` determines the source encoding of the file by looking for "
94122
"a UTF-8 BOM or encoding cookie, according to :pep:`263`."
95123
msgstr""
124+
":func:`tokenize` determina la codificación del fichero buscando una marca "
125+
"BOM UTF-8 o una *cookie* de codificación, de acuerdo con :pep:`263`."
96126

97127
#:../Doc/library/tokenize.rst:62
98128
msgid"Tokenize a source reading unicode strings instead of bytes."
99129
msgstr""
130+
"Convertir a *tokens* una fuente leyendo cadenas unicode en lugar de bytes."
100131

101132
#:../Doc/library/tokenize.rst:64
102133
msgid""
103134
"Like :func:`.tokenize`, the *readline* argument is a callable returning a "
104135
"single line of input. However, :func:`generate_tokens` expects *readline* to "
105136
"return a str object rather than bytes."
106137
msgstr""
138+
"Como :func:`.tokenize`, el argumento *readline* es un invocable que devuelve "
139+
"una sola línea de entrada. Sin embargo, :func:`generate_tokens` espera que "
140+
"*readline* devuelva un objeto *str* en lugar de *bytes*."
107141

108142
#:../Doc/library/tokenize.rst:68
109143
msgid""
110144
"The result is an iterator yielding named tuples, exactly like :func:`."
111145
"tokenize`. It does not yield an :data:`~token.ENCODING` token."
112146
msgstr""
147+
"El resultado es un iterador que produce tuplas con nombre, exactamente como :"
148+
"func:`.tokenize`. No produce un *token* :data:`~token.ENCODING`."
113149

114150
#:../Doc/library/tokenize.rst:71
115151
msgid""
116152
"All constants from the :mod:`token` module are also exported from :mod:"
117153
"`tokenize`."
118154
msgstr""
155+
"Todas las constantes del módulo :mod:`token` se exportan también desde :mod:"
156+
"`tokenize`."
119157

120158
#:../Doc/library/tokenize.rst:74
121159
msgid""
122160
"Another function is provided to reverse the tokenization process. This is "
123161
"useful for creating tools that tokenize a script, modify the token stream, "
124162
"and write back the modified script."
125163
msgstr""
164+
"Otra función se encarga de invertir el proceso de conversión. Esto es útil "
165+
"para crear herramientas que convierten a *tokens* un *script*, modificar el "
166+
"flujo de *token*, y escribir el *script* modificado."
126167

127168
#:../Doc/library/tokenize.rst:81
128169
msgid""
129170
"Converts tokens back into Python source code. The *iterable* must return "
130171
"sequences with at least two elements, the token type and the token string. "
131172
"Any additional sequence elements are ignored."
132173
msgstr""
174+
"Convierte los *tokens* de vuelta en código fuente Python. El *iterable* debe "
175+
"devolver secuencias con al menos dos elementos, el tipo de *token* y la "
176+
"cadena del *token*. Cualquier otro elemento de la secuencia es ignorado."
133177

134178
#:../Doc/library/tokenize.rst:85
135179
msgid""
@@ -139,32 +183,50 @@ msgid ""
139183
"token type and token string as the spacing between tokens (column positions) "
140184
"may change."
141185
msgstr""
186+
"El *script* reconstruido se devuelve como una cadena simple. El resultado "
187+
"está garantizado de que se convierte en *tokens* de vuelta a la misma "
188+
"entrada, de modo que la conversión no tiene pérdida y que las conversiones "
189+
"de ida y de vuelta están aseguradas. La garantía aplica sólo al tipo y la "
190+
"cadena del *token*, ya que el espaciado entre *tokens* (posiciones de "
191+
"columna) pueden variar."
142192

143193
#:../Doc/library/tokenize.rst:91
144194
msgid""
145195
"It returns bytes, encoded using the :data:`~token.ENCODING` token, which is "
146196
"the first token sequence output by :func:`.tokenize`. If there is no "
147197
"encoding token in the input, it returns a str instead."
148198
msgstr""
199+
"Devuelve bytes, codificados usando el *token* :data:`~token.ENCODING`, que "
200+
"es el primer elemento de la secuencia devuelta por :func:`.tokenize`. Si no "
201+
"hay un *token* de codificación en la entrada, devuelve una cadena."
149202

150203
#:../Doc/library/tokenize.rst:96
151204
msgid""
152205
":func:`.tokenize` needs to detect the encoding of source files it tokenizes. "
153206
"The function it uses to do this is available:"
154207
msgstr""
208+
":func:`.tokenize` necesita detectar la codificación de los ficheros fuente "
209+
"que convierte a *tokens*. La función que utiliza para hacer esto está "
210+
"disponible como:"
155211

156212
#:../Doc/library/tokenize.rst:101
157213
msgid""
158214
"The :func:`detect_encoding` function is used to detect the encoding that "
159215
"should be used to decode a Python source file. It requires one argument, "
160216
"readline, in the same way as the :func:`.tokenize` generator."
161217
msgstr""
218+
"La función :func:`detect_encoding` se usa para detectar la codificación que "
219+
"debería usarse al leer un fichero fuente Python. Requiere un argumento, "
220+
"*readline*, del mismo modo que el generador :func:`.tokenize`."
162221

163222
#:../Doc/library/tokenize.rst:105
164223
msgid""
165224
"It will call readline a maximum of twice, and return the encoding used (as a "
166225
"string) and a list of any lines (not decoded from bytes) it has read in."
167226
msgstr""
227+
"Llamará a *readline* un máximo de dos veces, devolviendo la codificación "
228+
"usada, como cadena, y una lista del resto de líneas leídas, no "
229+
"descodificadas de *bytes*."
168230

169231
#:../Doc/library/tokenize.rst:109
170232
msgid""
@@ -173,83 +235,103 @@ msgid ""
173235
"but disagree, a :exc:`SyntaxError` will be raised. Note that if the BOM is "
174236
"found, ``'utf-8-sig'`` will be returned as an encoding."
175237
msgstr""
238+
"Detecta la codificación a partir de la presencia de una marca BOM UTF-8 o "
239+
"una *cookie* de codificación, como se especifica en :pep:`263`. Si ambas "
240+
"están presentes pero en desacuerdo, se lanzará un :exc:`SyntaxError`. "
241+
"Resaltar que si se encuentra la marca BOM, se devolverá ``'utf-8-sig'`` como "
242+
"codificación."
176243

177244
#:../Doc/library/tokenize.rst:114
178245
msgid""
179246
"If no encoding is specified, then the default of ``'utf-8'`` will be "
180247
"returned."
181248
msgstr""
249+
"Si no se especifica una codificación, por defecto se devolverá ``'utf-8'``."
182250

183251
#:../Doc/library/tokenize.rst:117
184252
msgid""
185253
"Use :func:`.open` to open Python source files: it uses :func:"
186254
"`detect_encoding` to detect the file encoding."
187255
msgstr""
256+
"Usa :func:`.open` para abrir ficheros fuente Python: Ésta utiliza :func:"
257+
"`detect_encoding` para detectar la codificación del fichero."
188258

189259
#:../Doc/library/tokenize.rst:123
190260
msgid""
191261
"Open a file in read only mode using the encoding detected by :func:"
192262
"`detect_encoding`."
193263
msgstr""
264+
"Abrir un fichero en modo sólo lectura usando la codificación detectada por :"
265+
"func:`detect_encoding`."
194266

195267
#:../Doc/library/tokenize.rst:130
196268
msgid""
197269
"Raised when either a docstring or expression that may be split over several "
198270
"lines is not completed anywhere in the file, for example::"
199271
msgstr""
272+
"Lanzada cuando una expresión o *docstring* que puede separarse en más líneas "
273+
"no está completa en el fichero, por ejemplo::"
200274

201275
#:../Doc/library/tokenize.rst:136
202276
msgid"or::"
203-
msgstr""
277+
msgstr"o::"
204278

205279
#:../Doc/library/tokenize.rst:142
206280
msgid""
207281
"Note that unclosed single-quoted strings do not cause an error to be raised. "
208282
"They are tokenized as :data:`~token.ERRORTOKEN`, followed by the "
209283
"tokenization of their contents."
210284
msgstr""
285+
"Destacar que cadenas con comillas simples sin finalizar no lanzan un error. "
286+
"Se convertirán en *tokens* como :data:`~token.ERRORTOKEN`, seguido de la "
287+
"conversión de su contenido."
211288

212289
#:../Doc/library/tokenize.rst:150
213290
msgid"Command-Line Usage"
214-
msgstr""
291+
msgstr"Uso como línea de comandos"
215292

216293
#:../Doc/library/tokenize.rst:154
217294
msgid""
218295
"The :mod:`tokenize` module can be executed as a script from the command "
219296
"line. It is as simple as:"
220297
msgstr""
298+
"El módulo :mod:`tokenize` se puede ejecutar como *script* desde la línea de "
299+
"comandos. Es tan simple como:"
221300

222301
#:../Doc/library/tokenize.rst:161
223302
msgid"The following options are accepted:"
224-
msgstr""
303+
msgstr"Se aceptan las siguientes opciones:"
225304

226305
#:../Doc/library/tokenize.rst:167
227306
msgid"show this help message and exit"
228-
msgstr""
307+
msgstr"muestra el mensaje de ayuda y sale"
229308

230309
#:../Doc/library/tokenize.rst:171
231310
msgid"display token names using the exact type"
232-
msgstr""
311+
msgstr"muestra los nombres de token usando el tipo exacto"
233312

234313
#:../Doc/library/tokenize.rst:173
235314
msgid""
236315
"If :file:`filename.py` is specified its contents are tokenized to stdout. "
237316
"Otherwise, tokenization is performed on stdin."
238317
msgstr""
318+
"Si se especifica :file:`filename.py`, se convierte su contenido a *tokens* "
319+
"por la salida estándar. En otro caso, se convierte la entrada estándar."
239320

240321
#:../Doc/library/tokenize.rst:177
241322
msgid"Examples"
242-
msgstr""
323+
msgstr"Ejemplos"
243324

244325
#:../Doc/library/tokenize.rst:179
245326
msgid""
246327
"Example of a script rewriter that transforms float literals into Decimal "
247328
"objects::"
248329
msgstr""
330+
"Ejemplo de un *script* que transforma literales *float* en objetos Decimal::"
249331

250332
#:../Doc/library/tokenize.rst:221
251333
msgid"Example of tokenizing from the command line. The script::"
252-
msgstr""
334+
msgstr"Ejemplo de conversión desde la línea de comandos. El *script*::"
253335

254336
#:../Doc/library/tokenize.rst:228
255337
msgid""
@@ -258,18 +340,26 @@ msgid ""
258340
"column is the name of the token, and the final column is the value of the "
259341
"token (if any)"
260342
msgstr""
343+
"se convertirá en la salida siguiente, donde la primera columna es el rango "
344+
"de coordenadas línea/columna donde se encuentra el *token*, la segunda "
345+
"columna es el nombre del *token*, y la última columna es el valor del "
346+
"*token*, si lo hay"
261347

262348
#:../Doc/library/tokenize.rst:256
263349
msgid""
264350
"The exact token type names can be displayed using the :option:`-e` option:"
265351
msgstr""
352+
"Los nombres de tipos de *token* exactos se pueden mostrar con la opción :"
353+
"option:`-e`:"
266354

267355
#:../Doc/library/tokenize.rst:282
268356
msgid""
269357
"Example of tokenizing a file programmatically, reading unicode strings "
270358
"instead of bytes with :func:`generate_tokens`::"
271359
msgstr""
360+
"Ejemplo de conversión de un fichero a *tokens* programáticamente, leyendo "
361+
"cadenas unicode en lugar de *bytes* con :func:`generate_tokens`::"
272362

273363
#:../Doc/library/tokenize.rst:292
274364
msgid"Or reading bytes directly with :func:`.tokenize`::"
275-
msgstr""
365+
msgstr"O leyendo *bytes* directamente con :func:`.tokenize`::"

0 commit comments

Comments
 (0)

[8]ページ先頭

©2009-2025 Movatter.jp