[MERGE] forward port of branch saas-3 up to b6e6b57
[odoo/odoo.git] / openerp / osv / orm.py
1 # -*- coding: utf-8 -*-
2 ##############################################################################
3 #
4 #    OpenERP, Open Source Management Solution
5 #    Copyright (C) 2004-2009 Tiny SPRL (<http://tiny.be>).
6 #
7 #    This program is free software: you can redistribute it and/or modify
8 #    it under the terms of the GNU Affero General Public License as
9 #    published by the Free Software Foundation, either version 3 of the
10 #    License, or (at your option) any later version.
11 #
12 #    This program is distributed in the hope that it will be useful,
13 #    but WITHOUT ANY WARRANTY; without even the implied warranty of
14 #    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
15 #    GNU Affero General Public License for more details.
16 #
17 #    You should have received a copy of the GNU Affero General Public License
18 #    along with this program.  If not, see <http://www.gnu.org/licenses/>.
19 #
20 ##############################################################################
21
22
23 """
24   Object relational mapping to database (postgresql) module
25      * Hierarchical structure
26      * Constraints consistency, validations
27      * Object meta Data depends on its status
28      * Optimised processing by complex query (multiple actions at once)
29      * Default fields value
30      * Permissions optimisation
31      * Persistant object: DB postgresql
32      * Datas conversions
33      * Multi-level caching system
34      * 2 different inheritancies
35      * Fields:
36           - classicals (varchar, integer, boolean, ...)
37           - relations (one2many, many2one, many2many)
38           - functions
39
40 """
41
42 import calendar
43 import collections
44 import copy
45 import datetime
46 import itertools
47 import logging
48 import operator
49 import pickle
50 import pytz
51 import re
52 import simplejson
53 import time
54 import traceback
55 import types
56 from collections import defaultdict
57
58 import babel.dates
59 import dateutil.relativedelta
60 import psycopg2
61 from lxml import etree
62
63 import fields
64 import openerp
65 import openerp.tools as tools
66 from openerp.tools.config import config
67 from openerp.tools.misc import CountingStream, DEFAULT_SERVER_DATETIME_FORMAT, DEFAULT_SERVER_DATE_FORMAT
68 from openerp.tools.safe_eval import safe_eval as eval
69 from openerp.tools.translate import _
70 from openerp import SUPERUSER_ID
71 from query import Query
72
73 _logger = logging.getLogger(__name__)
74 _schema = logging.getLogger(__name__ + '.schema')
75
76 # List of etree._Element subclasses that we choose to ignore when parsing XML.
77 from openerp.tools import SKIPPED_ELEMENT_TYPES
78
79 regex_order = re.compile('^( *([a-z0-9:_]+|"[a-z0-9:_]+")( *desc| *asc)?( *, *|))+$', re.I)
80 regex_object_name = re.compile(r'^[a-z0-9_.]+$')
81
82 AUTOINIT_RECALCULATE_STORED_FIELDS = 1000
83
84 def transfer_field_to_modifiers(field, modifiers):
85     default_values = {}
86     state_exceptions = {}
87     for attr in ('invisible', 'readonly', 'required'):
88         state_exceptions[attr] = []
89         default_values[attr] = bool(field.get(attr))
90     for state, modifs in (field.get("states",{})).items():
91         for modif in modifs:
92             if default_values[modif[0]] != modif[1]:
93                 state_exceptions[modif[0]].append(state)
94
95     for attr, default_value in default_values.items():
96         if state_exceptions[attr]:
97             modifiers[attr] = [("state", "not in" if default_value else "in", state_exceptions[attr])]
98         else:
99             modifiers[attr] = default_value
100
101
102 # Don't deal with groups, it is done by check_group().
103 # Need the context to evaluate the invisible attribute on tree views.
104 # For non-tree views, the context shouldn't be given.
105 def transfer_node_to_modifiers(node, modifiers, context=None, in_tree_view=False):
106     if node.get('attrs'):
107         modifiers.update(eval(node.get('attrs')))
108
109     if node.get('states'):
110         if 'invisible' in modifiers and isinstance(modifiers['invisible'], list):
111             # TODO combine with AND or OR, use implicit AND for now.
112             modifiers['invisible'].append(('state', 'not in', node.get('states').split(',')))
113         else:
114             modifiers['invisible'] = [('state', 'not in', node.get('states').split(','))]
115
116     for a in ('invisible', 'readonly', 'required'):
117         if node.get(a):
118             v = bool(eval(node.get(a), {'context': context or {}}))
119             if in_tree_view and a == 'invisible':
120                 # Invisible in a tree view has a specific meaning, make it a
121                 # new key in the modifiers attribute.
122                 modifiers['tree_invisible'] = v
123             elif v or (a not in modifiers or not isinstance(modifiers[a], list)):
124                 # Don't set the attribute to False if a dynamic value was
125                 # provided (i.e. a domain from attrs or states).
126                 modifiers[a] = v
127
128
129 def simplify_modifiers(modifiers):
130     for a in ('invisible', 'readonly', 'required'):
131         if a in modifiers and not modifiers[a]:
132             del modifiers[a]
133
134
135 def transfer_modifiers_to_node(modifiers, node):
136     if modifiers:
137         simplify_modifiers(modifiers)
138         node.set('modifiers', simplejson.dumps(modifiers))
139
140 def setup_modifiers(node, field=None, context=None, in_tree_view=False):
141     """ Processes node attributes and field descriptors to generate
142     the ``modifiers`` node attribute and set it on the provided node.
143
144     Alters its first argument in-place.
145
146     :param node: ``field`` node from an OpenERP view
147     :type node: lxml.etree._Element
148     :param dict field: field descriptor corresponding to the provided node
149     :param dict context: execution context used to evaluate node attributes
150     :param bool in_tree_view: triggers the ``tree_invisible`` code
151                               path (separate from ``invisible``): in
152                               tree view there are two levels of
153                               invisibility, cell content (a column is
154                               present but the cell itself is not
155                               displayed) with ``invisible`` and column
156                               invisibility (the whole column is
157                               hidden) with ``tree_invisible``.
158     :returns: nothing
159     """
160     modifiers = {}
161     if field is not None:
162         transfer_field_to_modifiers(field, modifiers)
163     transfer_node_to_modifiers(
164         node, modifiers, context=context, in_tree_view=in_tree_view)
165     transfer_modifiers_to_node(modifiers, node)
166
167 def test_modifiers(what, expected):
168     modifiers = {}
169     if isinstance(what, basestring):
170         node = etree.fromstring(what)
171         transfer_node_to_modifiers(node, modifiers)
172         simplify_modifiers(modifiers)
173         json = simplejson.dumps(modifiers)
174         assert json == expected, "%s != %s" % (json, expected)
175     elif isinstance(what, dict):
176         transfer_field_to_modifiers(what, modifiers)
177         simplify_modifiers(modifiers)
178         json = simplejson.dumps(modifiers)
179         assert json == expected, "%s != %s" % (json, expected)
180
181
182 # To use this test:
183 # import openerp
184 # openerp.osv.orm.modifiers_tests()
185 def modifiers_tests():
186     test_modifiers('<field name="a"/>', '{}')
187     test_modifiers('<field name="a" invisible="1"/>', '{"invisible": true}')
188     test_modifiers('<field name="a" readonly="1"/>', '{"readonly": true}')
189     test_modifiers('<field name="a" required="1"/>', '{"required": true}')
190     test_modifiers('<field name="a" invisible="0"/>', '{}')
191     test_modifiers('<field name="a" readonly="0"/>', '{}')
192     test_modifiers('<field name="a" required="0"/>', '{}')
193     test_modifiers('<field name="a" invisible="1" required="1"/>', '{"invisible": true, "required": true}') # TODO order is not guaranteed
194     test_modifiers('<field name="a" invisible="1" required="0"/>', '{"invisible": true}')
195     test_modifiers('<field name="a" invisible="0" required="1"/>', '{"required": true}')
196     test_modifiers("""<field name="a" attrs="{'invisible': [('b', '=', 'c')]}"/>""", '{"invisible": [["b", "=", "c"]]}')
197
198     # The dictionary is supposed to be the result of fields_get().
199     test_modifiers({}, '{}')
200     test_modifiers({"invisible": True}, '{"invisible": true}')
201     test_modifiers({"invisible": False}, '{}')
202
203
204 def check_object_name(name):
205     """ Check if the given name is a valid openerp object name.
206
207         The _name attribute in osv and osv_memory object is subject to
208         some restrictions. This function returns True or False whether
209         the given name is allowed or not.
210
211         TODO: this is an approximation. The goal in this approximation
212         is to disallow uppercase characters (in some places, we quote
213         table/column names and in other not, which leads to this kind
214         of errors:
215
216             psycopg2.ProgrammingError: relation "xxx" does not exist).
217
218         The same restriction should apply to both osv and osv_memory
219         objects for consistency.
220
221     """
222     if regex_object_name.match(name) is None:
223         return False
224     return True
225
226 def raise_on_invalid_object_name(name):
227     if not check_object_name(name):
228         msg = "The _name attribute %s is not valid." % name
229         _logger.error(msg)
230         raise except_orm('ValueError', msg)
231
232 POSTGRES_CONFDELTYPES = {
233     'RESTRICT': 'r',
234     'NO ACTION': 'a',
235     'CASCADE': 'c',
236     'SET NULL': 'n',
237     'SET DEFAULT': 'd',
238 }
239
240 def intersect(la, lb):
241     return filter(lambda x: x in lb, la)
242
243 def fix_import_export_id_paths(fieldname):
244     """
245     Fixes the id fields in import and exports, and splits field paths
246     on '/'.
247
248     :param str fieldname: name of the field to import/export
249     :return: split field name
250     :rtype: list of str
251     """
252     fixed_db_id = re.sub(r'([^/])\.id', r'\1/.id', fieldname)
253     fixed_external_id = re.sub(r'([^/]):id', r'\1/id', fixed_db_id)
254     return fixed_external_id.split('/')
255
256 class except_orm(Exception):
257     def __init__(self, name, value):
258         self.name = name
259         self.value = value
260         self.args = (name, value)
261
262 class BrowseRecordError(Exception):
263     pass
264
265 class browse_null(object):
266     """ Readonly python database object browser
267     """
268
269     def __init__(self):
270         self.id = False
271
272     def __getitem__(self, name):
273         return None
274
275     def __getattr__(self, name):
276         return None  # XXX: return self ?
277
278     def __int__(self):
279         return False
280
281     def __str__(self):
282         return ''
283
284     def __nonzero__(self):
285         return False
286
287     def __unicode__(self):
288         return u''
289
290     def __iter__(self):
291         raise NotImplementedError("Iteration is not allowed on %s" % self)
292
293
294 #
295 # TODO: execute an object method on browse_record_list
296 #
297 class browse_record_list(list):
298     """ Collection of browse objects
299
300         Such an instance will be returned when doing a ``browse([ids..])``
301         and will be iterable, yielding browse() objects
302     """
303
304     def __init__(self, lst, context=None):
305         if not context:
306             context = {}
307         super(browse_record_list, self).__init__(lst)
308         self.context = context
309
310
311 class browse_record(object):
312     """ An object that behaves like a row of an object's table.
313         It has attributes after the columns of the corresponding object.
314
315         Examples::
316
317             uobj = pool.get('res.users')
318             user_rec = uobj.browse(cr, uid, 104)
319             name = user_rec.name
320     """
321
322     def __init__(self, cr, uid, id, table, cache, context=None,
323                  list_class=browse_record_list, fields_process=None):
324         """
325         :param table: the browsed object (inherited from orm)
326         :param dict cache: a dictionary of model->field->data to be shared
327                            across browse objects, thus reducing the SQL
328                            read()s. It can speed up things a lot, but also be
329                            disastrous if not discarded after write()/unlink()
330                            operations
331         :param dict context: dictionary with an optional context
332         """
333         if fields_process is None:
334             fields_process = {}
335         if context is None:
336             context = {}
337         self._list_class = list_class
338         self._cr = cr
339         self._uid = uid
340         self._id = id
341         self._table = table # deprecated, use _model!
342         self._model = table
343         self._table_name = self._table._name
344         self.__logger = logging.getLogger('openerp.osv.orm.browse_record.' + self._table_name)
345         self._context = context
346         self._fields_process = fields_process
347
348         cache.setdefault(table._name, {})
349         self._data = cache[table._name]
350
351 #        if not (id and isinstance(id, (int, long,))):
352 #            raise BrowseRecordError(_('Wrong ID for the browse record, got %r, expected an integer.') % (id,))
353 #        if not table.exists(cr, uid, id, context):
354 #            raise BrowseRecordError(_('Object %s does not exists') % (self,))
355
356         if id not in self._data:
357             self._data[id] = {'id': id}
358
359         self._cache = cache
360
361     def __getitem__(self, name):
362         if name == 'id':
363             return self._id
364
365         if name not in self._data[self._id]:
366             # build the list of fields we will fetch
367
368             # fetch the definition of the field which was asked for
369             if name in self._table._columns:
370                 col = self._table._columns[name]
371             elif name in self._table._inherit_fields:
372                 col = self._table._inherit_fields[name][2]
373             elif hasattr(self._table, str(name)):
374                 attr = getattr(self._table, name)
375                 if isinstance(attr, (types.MethodType, types.LambdaType, types.FunctionType)):
376                     def function_proxy(*args, **kwargs):
377                         if 'context' not in kwargs and self._context:
378                             kwargs.update(context=self._context)
379                         return attr(self._cr, self._uid, [self._id], *args, **kwargs)
380                     return function_proxy
381                 else:
382                     return attr
383             else:
384                 error_msg = "Field '%s' does not exist in object '%s'" % (name, self)
385                 self.__logger.warning(error_msg)
386                 if self.__logger.isEnabledFor(logging.DEBUG):
387                     self.__logger.debug(''.join(traceback.format_stack()))
388                 raise KeyError(error_msg)
389
390             prefetchable = lambda f: f._classic_write and f._prefetch and not f.groups and not f.deprecated
391
392             # if the field is a classic one or a many2one, we'll fetch all classic and many2one fields
393             if prefetchable(col):
394                 # gen the list of "local" (ie not inherited) fields which are classic or many2one
395                 field_filter = lambda x: prefetchable(x[1])
396                 fields_to_fetch = filter(field_filter, self._table._columns.items())
397                 # gen the list of inherited fields
398                 inherits = map(lambda x: (x[0], x[1][2]), self._table._inherit_fields.items())
399                 # complete the field list with the inherited fields which are classic or many2one
400                 fields_to_fetch += filter(field_filter, inherits)
401             # otherwise we fetch only that field
402             else:
403                 fields_to_fetch = [(name, col)]
404
405             ids = filter(lambda id: name not in self._data[id], self._data.keys())
406             # read the results
407             field_names = map(lambda x: x[0], fields_to_fetch)
408             try:
409                 field_values = self._table.read(self._cr, self._uid, ids, field_names, context=self._context, load="_classic_write")
410             except (openerp.exceptions.AccessError, except_orm):
411                 if len(ids) == 1:
412                     raise
413                 # prefetching attempt failed, perhaps we're violating ACL restrictions involuntarily
414                 _logger.info('Prefetching attempt for fields %s on %s failed for ids %s, re-trying just for id %s', field_names, self._model._name, ids, self._id)
415                 ids = [self._id]
416                 field_values = self._table.read(self._cr, self._uid, ids, field_names, context=self._context, load="_classic_write")
417
418             # TODO: improve this, very slow for reports
419             if self._fields_process:
420                 lang = self._context.get('lang', 'en_US') or 'en_US'
421                 lang_obj_ids = self.pool.get('res.lang').search(self._cr, self._uid, [('code', '=', lang)])
422                 if not lang_obj_ids:
423                     raise Exception(_('Language with code "%s" is not defined in your system !\nDefine it through the Administration menu.') % (lang,))
424                 lang_obj = self.pool.get('res.lang').browse(self._cr, self._uid, lang_obj_ids[0])
425
426                 for field_name, field_column in fields_to_fetch:
427                     if field_column._type in self._fields_process:
428                         for result_line in field_values:
429                             result_line[field_name] = self._fields_process[field_column._type](result_line[field_name])
430                             if result_line[field_name]:
431                                 result_line[field_name].set_value(self._cr, self._uid, result_line[field_name], self, field_column, lang_obj)
432
433             if not field_values:
434                 # Where did those ids come from? Perhaps old entries in ir_model_dat?
435                 _logger.warning("No field_values found for ids %s in %s", ids, self)
436                 raise KeyError('Field %s not found in %s'%(name, self))
437             # create browse records for 'remote' objects
438             for result_line in field_values:
439                 new_data = {}
440                 for field_name, field_column in fields_to_fetch:
441                     if field_column._type == 'many2one':
442                         if result_line[field_name]:
443                             obj = self._table.pool[field_column._obj]
444                             if isinstance(result_line[field_name], (list, tuple)):
445                                 value = result_line[field_name][0]
446                             else:
447                                 value = result_line[field_name]
448                             if value:
449                                 # FIXME: this happen when a _inherits object
450                                 #        overwrite a field of it parent. Need
451                                 #        testing to be sure we got the right
452                                 #        object and not the parent one.
453                                 if not isinstance(value, browse_record):
454                                     if obj is None:
455                                         # In some cases the target model is not available yet, so we must ignore it,
456                                         # which is safe in most cases, this value will just be loaded later when needed.
457                                         # This situation can be caused by custom fields that connect objects with m2o without
458                                         # respecting module dependencies, causing relationships to be connected to soon when
459                                         # the target is not loaded yet.
460                                         continue
461                                     new_data[field_name] = browse_record(self._cr,
462                                         self._uid, value, obj, self._cache,
463                                         context=self._context,
464                                         list_class=self._list_class,
465                                         fields_process=self._fields_process)
466                                 else:
467                                     new_data[field_name] = value
468                             else:
469                                 new_data[field_name] = browse_null()
470                         else:
471                             new_data[field_name] = browse_null()
472                     elif field_column._type in ('one2many', 'many2many') and len(result_line[field_name]):
473                         new_data[field_name] = self._list_class(
474                             (browse_record(self._cr, self._uid, id, self._table.pool.get(field_column._obj),
475                                            self._cache, context=self._context, list_class=self._list_class,
476                                            fields_process=self._fields_process)
477                                for id in result_line[field_name]),
478                             context=self._context)
479                     elif field_column._type == 'reference':
480                         if result_line[field_name]:
481                             if isinstance(result_line[field_name], browse_record):
482                                 new_data[field_name] = result_line[field_name]
483                             else:
484                                 ref_obj, ref_id = result_line[field_name].split(',')
485                                 ref_id = long(ref_id)
486                                 if ref_id:
487                                     obj = self._table.pool[ref_obj]
488                                     new_data[field_name] = browse_record(self._cr, self._uid, ref_id, obj, self._cache, context=self._context, list_class=self._list_class, fields_process=self._fields_process)
489                                 else:
490                                     new_data[field_name] = browse_null()
491                         else:
492                             new_data[field_name] = browse_null()
493                     else:
494                         new_data[field_name] = result_line[field_name]
495                 self._data[result_line['id']].update(new_data)
496
497         if not name in self._data[self._id]:
498             # How did this happen? Could be a missing model due to custom fields used too soon, see above.
499             self.__logger.error("Fields to fetch: %s, Field values: %s", field_names, field_values)
500             self.__logger.error("Cached: %s, Table: %s", self._data[self._id], self._table)
501             raise KeyError(_('Unknown attribute %s in %s ') % (name, self))
502         return self._data[self._id][name]
503
504     def __getattr__(self, name):
505         try:
506             return self[name]
507         except KeyError, e:
508             import sys
509             exc_info = sys.exc_info()
510             raise AttributeError, "Got %r while trying to get attribute %s on a %s record." % (e, name, self._table._name), exc_info[2]
511
512     def __contains__(self, name):
513         return (name in self._table._columns) or (name in self._table._inherit_fields) or hasattr(self._table, name)
514
515     def __iter__(self):
516         raise NotImplementedError("Iteration is not allowed on %s" % self)
517
518     def __hasattr__(self, name):
519         return name in self
520
521     def __int__(self):
522         return self._id
523
524     def __str__(self):
525         return "browse_record(%s, %s)" % (self._table_name, self._id)
526
527     def __eq__(self, other):
528         if not isinstance(other, browse_record):
529             return False
530         return (self._table_name, self._id) == (other._table_name, other._id)
531
532     def __ne__(self, other):
533         if not isinstance(other, browse_record):
534             return True
535         return (self._table_name, self._id) != (other._table_name, other._id)
536
537     # we need to define __unicode__ even though we've already defined __str__
538     # because we have overridden __getattr__
539     def __unicode__(self):
540         return unicode(str(self))
541
542     def __hash__(self):
543         return hash((self._table_name, self._id))
544
545     __repr__ = __str__
546
547     def refresh(self):
548         """Force refreshing this browse_record's data and all the data of the
549            records that belong to the same cache, by emptying the cache completely,
550            preserving only the record identifiers (for prefetching optimizations).
551         """
552         for model, model_cache in self._cache.iteritems():
553             # only preserve the ids of the records that were in the cache
554             cached_ids = dict([(i, {'id': i}) for i in model_cache.keys()])
555             self._cache[model].clear()
556             self._cache[model].update(cached_ids)
557
558 def pg_varchar(size=0):
559     """ Returns the VARCHAR declaration for the provided size:
560
561     * If no size (or an empty or negative size is provided) return an
562       'infinite' VARCHAR
563     * Otherwise return a VARCHAR(n)
564
565     :type int size: varchar size, optional
566     :rtype: str
567     """
568     if size:
569         if not isinstance(size, int):
570             raise TypeError("VARCHAR parameter should be an int, got %s"
571                             % type(size))
572         if size > 0:
573             return 'VARCHAR(%d)' % size
574     return 'VARCHAR'
575
576 FIELDS_TO_PGTYPES = {
577     fields.boolean: 'bool',
578     fields.integer: 'int4',
579     fields.text: 'text',
580     fields.html: 'text',
581     fields.date: 'date',
582     fields.datetime: 'timestamp',
583     fields.binary: 'bytea',
584     fields.many2one: 'int4',
585     fields.serialized: 'text',
586 }
587
588 def get_pg_type(f, type_override=None):
589     """
590     :param fields._column f: field to get a Postgres type for
591     :param type type_override: use the provided type for dispatching instead of the field's own type
592     :returns: (postgres_identification_type, postgres_type_specification)
593     :rtype: (str, str)
594     """
595     field_type = type_override or type(f)
596
597     if field_type in FIELDS_TO_PGTYPES:
598         pg_type =  (FIELDS_TO_PGTYPES[field_type], FIELDS_TO_PGTYPES[field_type])
599     elif issubclass(field_type, fields.float):
600         if f.digits:
601             pg_type = ('numeric', 'NUMERIC')
602         else:
603             pg_type = ('float8', 'DOUBLE PRECISION')
604     elif issubclass(field_type, (fields.char, fields.reference)):
605         pg_type = ('varchar', pg_varchar(f.size))
606     elif issubclass(field_type, fields.selection):
607         if (isinstance(f.selection, list) and isinstance(f.selection[0][0], int))\
608                 or getattr(f, 'size', None) == -1:
609             pg_type = ('int4', 'INTEGER')
610         else:
611             pg_type = ('varchar', pg_varchar(getattr(f, 'size', None)))
612     elif issubclass(field_type, fields.function):
613         if f._type == 'selection':
614             pg_type = ('varchar', pg_varchar())
615         else:
616             pg_type = get_pg_type(f, getattr(fields, f._type))
617     else:
618         _logger.warning('%s type not supported!', field_type)
619         pg_type = None
620
621     return pg_type
622
623
624 class MetaModel(type):
625     """ Metaclass for the Model.
626
627     This class is used as the metaclass for the Model class to discover
628     the models defined in a module (i.e. without instanciating them).
629     If the automatic discovery is not needed, it is possible to set the
630     model's _register attribute to False.
631
632     """
633
634     module_to_models = {}
635
636     def __init__(self, name, bases, attrs):
637         if not self._register:
638             self._register = True
639             super(MetaModel, self).__init__(name, bases, attrs)
640             return
641
642         # The (OpenERP) module name can be in the `openerp.addons` namespace
643         # or not. For instance module `sale` can be imported as
644         # `openerp.addons.sale` (the good way) or `sale` (for backward
645         # compatibility).
646         module_parts = self.__module__.split('.')
647         if len(module_parts) > 2 and module_parts[0] == 'openerp' and \
648             module_parts[1] == 'addons':
649             module_name = self.__module__.split('.')[2]
650         else:
651             module_name = self.__module__.split('.')[0]
652         if not hasattr(self, '_module'):
653             self._module = module_name
654
655         # Remember which models to instanciate for this module.
656         if not self._custom:
657             self.module_to_models.setdefault(self._module, []).append(self)
658
659
660 # Definition of log access columns, automatically added to models if
661 # self._log_access is True
662 LOG_ACCESS_COLUMNS = {
663     'create_uid': 'INTEGER REFERENCES res_users ON DELETE SET NULL',
664     'create_date': 'TIMESTAMP',
665     'write_uid': 'INTEGER REFERENCES res_users ON DELETE SET NULL',
666     'write_date': 'TIMESTAMP'
667 }
668 # special columns automatically created by the ORM
669 MAGIC_COLUMNS =  ['id'] + LOG_ACCESS_COLUMNS.keys()
670
671 class BaseModel(object):
672     """ Base class for OpenERP models.
673
674     OpenERP models are created by inheriting from this class' subclasses:
675
676     * Model: for regular database-persisted models
677     * TransientModel: for temporary data, stored in the database but automatically
678                       vaccuumed every so often
679     * AbstractModel: for abstract super classes meant to be shared by multiple
680                      _inheriting classes (usually Models or TransientModels)
681
682     The system will later instantiate the class once per database (on
683     which the class' module is installed).
684
685     To create a class that should not be instantiated, the _register class attribute
686     may be set to False.
687     """
688     __metaclass__ = MetaModel
689     _auto = True # create database backend
690     _register = False # Set to false if the model shouldn't be automatically discovered.
691     _name = None
692     _columns = {}
693     _constraints = []
694     _custom = False
695     _defaults = {}
696     _rec_name = None
697     _parent_name = 'parent_id'
698     _parent_store = False
699     _parent_order = False
700     _date_name = 'date'
701     _order = 'id'
702     _sequence = None
703     _description = None
704     _needaction = False
705
706     # dict of {field:method}, with method returning the (name_get of records, {id: fold})
707     # to include in the _read_group, if grouped on this field
708     _group_by_full = {}
709
710     # Transience
711     _transient = False # True in a TransientModel
712
713     # structure:
714     #  { 'parent_model': 'm2o_field', ... }
715     _inherits = {}
716
717     # Mapping from inherits'd field name to triple (m, r, f, n) where m is the
718     # model from which it is inherits'd, r is the (local) field towards m, f
719     # is the _column object itself, and n is the original (i.e. top-most)
720     # parent model.
721     # Example:
722     #  { 'field_name': ('parent_model', 'm2o_field_to_reach_parent',
723     #                   field_column_obj, origina_parent_model), ... }
724     _inherit_fields = {}
725
726     # Mapping field name/column_info object
727     # This is similar to _inherit_fields but:
728     # 1. includes self fields,
729     # 2. uses column_info instead of a triple.
730     _all_columns = {}
731
732     _table = None
733     _log_create = False
734     _sql_constraints = []
735     _protected = ['read', 'write', 'create', 'default_get', 'perm_read', 'unlink', 'fields_get', 'fields_view_get', 'search', 'name_get', 'distinct_field_get', 'name_search', 'copy', 'import_data', 'search_count', 'exists']
736
737     CONCURRENCY_CHECK_FIELD = '__last_update'
738
739     def log(self, cr, uid, id, message, secondary=False, context=None):
740         return _logger.warning("log() is deprecated. Please use OpenChatter notification system instead of the res.log mechanism.")
741
742     def view_init(self, cr, uid, fields_list, context=None):
743         """Override this method to do specific things when a view on the object is opened."""
744         pass
745
746     def _field_create(self, cr, context=None):
747         """ Create entries in ir_model_fields for all the model's fields.
748
749         If necessary, also create an entry in ir_model, and if called from the
750         modules loading scheme (by receiving 'module' in the context), also
751         create entries in ir_model_data (for the model and the fields).
752
753         - create an entry in ir_model (if there is not already one),
754         - create an entry in ir_model_data (if there is not already one, and if
755           'module' is in the context),
756         - update ir_model_fields with the fields found in _columns
757           (TODO there is some redundancy as _columns is updated from
758           ir_model_fields in __init__).
759
760         """
761         if context is None:
762             context = {}
763         cr.execute("SELECT id FROM ir_model WHERE model=%s", (self._name,))
764         if not cr.rowcount:
765             cr.execute('SELECT nextval(%s)', ('ir_model_id_seq',))
766             model_id = cr.fetchone()[0]
767             cr.execute("INSERT INTO ir_model (id,model, name, info,state) VALUES (%s, %s, %s, %s, %s)", (model_id, self._name, self._description, self.__doc__, 'base'))
768         else:
769             model_id = cr.fetchone()[0]
770         if 'module' in context:
771             name_id = 'model_'+self._name.replace('.', '_')
772             cr.execute('select * from ir_model_data where name=%s and module=%s', (name_id, context['module']))
773             if not cr.rowcount:
774                 cr.execute("INSERT INTO ir_model_data (name,date_init,date_update,module,model,res_id) VALUES (%s, (now() at time zone 'UTC'), (now() at time zone 'UTC'), %s, %s, %s)", \
775                     (name_id, context['module'], 'ir.model', model_id)
776                 )
777
778         cr.execute("SELECT * FROM ir_model_fields WHERE model=%s", (self._name,))
779         cols = {}
780         for rec in cr.dictfetchall():
781             cols[rec['name']] = rec
782
783         ir_model_fields_obj = self.pool.get('ir.model.fields')
784
785         # sparse field should be created at the end, as it depends on its serialized field already existing
786         model_fields = sorted(self._columns.items(), key=lambda x: 1 if x[1]._type == 'sparse' else 0)
787         for (k, f) in model_fields:
788             vals = {
789                 'model_id': model_id,
790                 'model': self._name,
791                 'name': k,
792                 'field_description': f.string,
793                 'ttype': f._type,
794                 'relation': f._obj or '',
795                 'select_level': tools.ustr(f.select or 0),
796                 'readonly': (f.readonly and 1) or 0,
797                 'required': (f.required and 1) or 0,
798                 'selectable': (f.selectable and 1) or 0,
799                 'translate': (f.translate and 1) or 0,
800                 'relation_field': f._fields_id if isinstance(f, fields.one2many) else '',
801                 'serialization_field_id': None,
802             }
803             if getattr(f, 'serialization_field', None):
804                 # resolve link to serialization_field if specified by name
805                 serialization_field_id = ir_model_fields_obj.search(cr, SUPERUSER_ID, [('model','=',vals['model']), ('name', '=', f.serialization_field)])
806                 if not serialization_field_id:
807                     raise except_orm(_('Error'), _("Serialization field `%s` not found for sparse field `%s`!") % (f.serialization_field, k))
808                 vals['serialization_field_id'] = serialization_field_id[0]
809
810             # When its a custom field,it does not contain f.select
811             if context.get('field_state', 'base') == 'manual':
812                 if context.get('field_name', '') == k:
813                     vals['select_level'] = context.get('select', '0')
814                 #setting value to let the problem NOT occur next time
815                 elif k in cols:
816                     vals['select_level'] = cols[k]['select_level']
817
818             if k not in cols:
819                 cr.execute('select nextval(%s)', ('ir_model_fields_id_seq',))
820                 id = cr.fetchone()[0]
821                 vals['id'] = id
822                 cr.execute("""INSERT INTO ir_model_fields (
823                     id, model_id, model, name, field_description, ttype,
824                     relation,state,select_level,relation_field, translate, serialization_field_id
825                 ) VALUES (
826                     %s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s
827                 )""", (
828                     id, vals['model_id'], vals['model'], vals['name'], vals['field_description'], vals['ttype'],
829                      vals['relation'], 'base',
830                     vals['select_level'], vals['relation_field'], bool(vals['translate']), vals['serialization_field_id']
831                 ))
832                 if 'module' in context:
833                     name1 = 'field_' + self._table + '_' + k
834                     cr.execute("select name from ir_model_data where name=%s", (name1,))
835                     if cr.fetchone():
836                         name1 = name1 + "_" + str(id)
837                     cr.execute("INSERT INTO ir_model_data (name,date_init,date_update,module,model,res_id) VALUES (%s, (now() at time zone 'UTC'), (now() at time zone 'UTC'), %s, %s, %s)", \
838                         (name1, context['module'], 'ir.model.fields', id)
839                     )
840             else:
841                 for key, val in vals.items():
842                     if cols[k][key] != vals[key]:
843                         cr.execute('update ir_model_fields set field_description=%s where model=%s and name=%s', (vals['field_description'], vals['model'], vals['name']))
844                         cr.execute("""UPDATE ir_model_fields SET
845                             model_id=%s, field_description=%s, ttype=%s, relation=%s,
846                             select_level=%s, readonly=%s ,required=%s, selectable=%s, relation_field=%s, translate=%s, serialization_field_id=%s
847                         WHERE
848                             model=%s AND name=%s""", (
849                                 vals['model_id'], vals['field_description'], vals['ttype'],
850                                 vals['relation'],
851                                 vals['select_level'], bool(vals['readonly']), bool(vals['required']), bool(vals['selectable']), vals['relation_field'], bool(vals['translate']), vals['serialization_field_id'], vals['model'], vals['name']
852                             ))
853                         break
854
855     #
856     # Goal: try to apply inheritance at the instanciation level and
857     #       put objects in the pool var
858     #
859     @classmethod
860     def create_instance(cls, pool, cr):
861         """ Instanciate a given model.
862
863         This class method instanciates the class of some model (i.e. a class
864         deriving from osv or osv_memory). The class might be the class passed
865         in argument or, if it inherits from another class, a class constructed
866         by combining the two classes.
867
868         The ``attributes`` argument specifies which parent class attributes
869         have to be combined.
870
871         TODO: the creation of the combined class is repeated at each call of
872         this method. This is probably unnecessary.
873
874         """
875         attributes = ['_columns', '_defaults', '_inherits', '_constraints',
876             '_sql_constraints']
877
878         parent_names = getattr(cls, '_inherit', None)
879         if parent_names:
880             if isinstance(parent_names, (str, unicode)):
881                 name = cls._name or parent_names
882                 parent_names = [parent_names]
883             else:
884                 name = cls._name
885             if not name:
886                 raise TypeError('_name is mandatory in case of multiple inheritance')
887
888             for parent_name in ((type(parent_names)==list) and parent_names or [parent_names]):
889                 if parent_name not in pool:
890                     raise TypeError('The model "%s" specifies an unexisting parent class "%s"\n'
891                         'You may need to add a dependency on the parent class\' module.' % (name, parent_name))
892                 parent_model = pool[parent_name]
893                 if not getattr(cls, '_original_module', None) and name == parent_model._name:
894                     cls._original_module = parent_model._original_module
895                 parent_class = parent_model.__class__
896                 nattr = {}
897                 for s in attributes:
898                     new = copy.copy(getattr(parent_model, s, {}))
899                     if s == '_columns':
900                         # Don't _inherit custom fields.
901                         for c in new.keys():
902                             if new[c].manual:
903                                 del new[c]
904                     if hasattr(new, 'update'):
905                         new.update(cls.__dict__.get(s, {}))
906                     elif s=='_constraints':
907                         for c in cls.__dict__.get(s, []):
908                             exist = False
909                             for c2 in range(len(new)):
910                                 #For _constraints, we should check field and methods as well
911                                 if new[c2][2]==c[2] and (new[c2][0] == c[0] \
912                                         or getattr(new[c2][0],'__name__', True) == \
913                                             getattr(c[0],'__name__', False)):
914                                     # If new class defines a constraint with
915                                     # same function name, we let it override
916                                     # the old one.
917
918                                     new[c2] = c
919                                     exist = True
920                                     break
921                             if not exist:
922                                 new.append(c)
923                     else:
924                         new.extend(cls.__dict__.get(s, []))
925                     nattr[s] = new
926
927                 # Keep links to non-inherited constraints, e.g. useful when exporting translations
928                 nattr['_local_constraints'] = cls.__dict__.get('_constraints', [])
929                 nattr['_local_sql_constraints'] = cls.__dict__.get('_sql_constraints', [])
930
931                 cls = type(name, (cls, parent_class), dict(nattr, _register=False))
932         else:
933             cls._local_constraints = getattr(cls, '_constraints', [])
934             cls._local_sql_constraints = getattr(cls, '_sql_constraints', [])
935
936         if not getattr(cls, '_original_module', None):
937             cls._original_module = cls._module
938         obj = object.__new__(cls)
939
940         if hasattr(obj, '_columns'):
941             # float fields are registry-dependent (digit attribute). Duplicate them to avoid issues.
942             for c, f in obj._columns.items():
943                 if f._type == 'float':
944                     obj._columns[c] = copy.copy(f)
945
946         obj.__init__(pool, cr)
947         return obj
948
949     def __new__(cls):
950         """Register this model.
951
952         This doesn't create an instance but simply register the model
953         as being part of the module where it is defined.
954
955         """
956
957
958         # Set the module name (e.g. base, sale, accounting, ...) on the class.
959         module = cls.__module__.split('.')[0]
960         if not hasattr(cls, '_module'):
961             cls._module = module
962
963         # Record this class in the list of models to instantiate for this module,
964         # managed by the metaclass.
965         module_model_list = MetaModel.module_to_models.setdefault(cls._module, [])
966         if cls not in module_model_list:
967             if not cls._custom:
968                 module_model_list.append(cls)
969
970         # Since we don't return an instance here, the __init__
971         # method won't be called.
972         return None
973
974     def __init__(self, pool, cr):
975         """ Initialize a model and make it part of the given registry.
976
977         - copy the stored fields' functions in the osv_pool,
978         - update the _columns with the fields found in ir_model_fields,
979         - ensure there is a many2one for each _inherits'd parent,
980         - update the children's _columns,
981         - give a chance to each field to initialize itself.
982
983         """
984         pool.add(self._name, self)
985         self.pool = pool
986
987         if not self._name and not hasattr(self, '_inherit'):
988             name = type(self).__name__.split('.')[0]
989             msg = "The class %s has to have a _name attribute" % name
990
991             _logger.error(msg)
992             raise except_orm('ValueError', msg)
993
994         if not self._description:
995             self._description = self._name
996         if not self._table:
997             self._table = self._name.replace('.', '_')
998
999         if not hasattr(self, '_log_access'):
1000             # If _log_access is not specified, it is the same value as _auto.
1001             self._log_access = getattr(self, "_auto", True)
1002
1003         self._columns = self._columns.copy()
1004         for store_field in self._columns:
1005             f = self._columns[store_field]
1006             if hasattr(f, 'digits_change'):
1007                 f.digits_change(cr)
1008             def not_this_field(stored_func):
1009                 x, y, z, e, f, l = stored_func
1010                 return x != self._name or y != store_field
1011             self.pool._store_function[self._name] = filter(not_this_field, self.pool._store_function.get(self._name, []))
1012             if not isinstance(f, fields.function):
1013                 continue
1014             if not f.store:
1015                 continue
1016             sm = f.store
1017             if sm is True:
1018                 sm = {self._name: (lambda self, cr, uid, ids, c={}: ids, None, f.priority, None)}
1019             for object, aa in sm.items():
1020                 if len(aa) == 4:
1021                     (fnct, fields2, order, length) = aa
1022                 elif len(aa) == 3:
1023                     (fnct, fields2, order) = aa
1024                     length = None
1025                 else:
1026                     raise except_orm('Error',
1027                         ('Invalid function definition %s in object %s !\nYou must use the definition: store={object:(fnct, fields, priority, time length)}.' % (store_field, self._name)))
1028                 self.pool._store_function.setdefault(object, [])
1029                 t = (self._name, store_field, fnct, tuple(fields2) if fields2 else None, order, length)
1030                 if not t in self.pool._store_function[object]:
1031                     self.pool._store_function[object].append((self._name, store_field, fnct, tuple(fields2) if fields2 else None, order, length))
1032                     self.pool._store_function[object].sort(lambda x, y: cmp(x[4], y[4]))
1033
1034         for (key, _, msg) in self._sql_constraints:
1035             self.pool._sql_error[self._table+'_'+key] = msg
1036
1037         # Load manual fields
1038
1039         # Check the query is already done for all modules of if we need to
1040         # do it ourselves.
1041         if self.pool.fields_by_model is not None:
1042             manual_fields = self.pool.fields_by_model.get(self._name, [])
1043         else:
1044             cr.execute('SELECT * FROM ir_model_fields WHERE model=%s AND state=%s', (self._name, 'manual'))
1045             manual_fields = cr.dictfetchall()
1046         for field in manual_fields:
1047             if field['name'] in self._columns:
1048                 continue
1049             attrs = {
1050                 'string': field['field_description'],
1051                 'required': bool(field['required']),
1052                 'readonly': bool(field['readonly']),
1053                 'domain': eval(field['domain']) if field['domain'] else None,
1054                 'size': field['size'] or None,
1055                 'ondelete': field['on_delete'],
1056                 'translate': (field['translate']),
1057                 'manual': True,
1058                 '_prefetch': False,
1059                 #'select': int(field['select_level'])
1060             }
1061
1062             if field['serialization_field_id']:
1063                 cr.execute('SELECT name FROM ir_model_fields WHERE id=%s', (field['serialization_field_id'],))
1064                 attrs.update({'serialization_field': cr.fetchone()[0], 'type': field['ttype']})
1065                 if field['ttype'] in ['many2one', 'one2many', 'many2many']:
1066                     attrs.update({'relation': field['relation']})
1067                 self._columns[field['name']] = fields.sparse(**attrs)
1068             elif field['ttype'] == 'selection':
1069                 self._columns[field['name']] = fields.selection(eval(field['selection']), **attrs)
1070             elif field['ttype'] == 'reference':
1071                 self._columns[field['name']] = fields.reference(selection=eval(field['selection']), **attrs)
1072             elif field['ttype'] == 'many2one':
1073                 self._columns[field['name']] = fields.many2one(field['relation'], **attrs)
1074             elif field['ttype'] == 'one2many':
1075                 self._columns[field['name']] = fields.one2many(field['relation'], field['relation_field'], **attrs)
1076             elif field['ttype'] == 'many2many':
1077                 _rel1 = field['relation'].replace('.', '_')
1078                 _rel2 = field['model'].replace('.', '_')
1079                 _rel_name = 'x_%s_%s_%s_rel' % (_rel1, _rel2, field['name'])
1080                 self._columns[field['name']] = fields.many2many(field['relation'], _rel_name, 'id1', 'id2', **attrs)
1081             else:
1082                 self._columns[field['name']] = getattr(fields, field['ttype'])(**attrs)
1083
1084         self._inherits_check()
1085         self._inherits_reload()
1086         if not self._sequence:
1087             self._sequence = self._table + '_id_seq'
1088         for k in self._defaults:
1089             assert (k in self._columns) or (k in self._inherit_fields), 'Default function defined in %s but field %s does not exist !' % (self._name, k,)
1090         for f in self._columns:
1091             self._columns[f].restart()
1092
1093         # Transience
1094         if self.is_transient():
1095             self._transient_check_count = 0
1096             self._transient_max_count = config.get('osv_memory_count_limit')
1097             self._transient_max_hours = config.get('osv_memory_age_limit')
1098             assert self._log_access, "TransientModels must have log_access turned on, "\
1099                                      "in order to implement their access rights policy"
1100
1101         # Validate rec_name
1102         if self._rec_name is not None:
1103             assert self._rec_name in self._all_columns.keys() + ['id'], "Invalid rec_name %s for model %s" % (self._rec_name, self._name)
1104         else:
1105             self._rec_name = 'name'
1106
1107
1108     def __export_row(self, cr, uid, row, fields, raw_data=False, context=None):
1109         if context is None:
1110             context = {}
1111
1112         def check_type(field_type):
1113             if field_type == 'float':
1114                 return 0.0
1115             elif field_type == 'integer':
1116                 return 0
1117             elif field_type == 'boolean':
1118                 return 'False'
1119             return ''
1120
1121         def selection_field(in_field):
1122             col_obj = self.pool[in_field.keys()[0]]
1123             if f[i] in col_obj._columns.keys():
1124                 return  col_obj._columns[f[i]]
1125             elif f[i] in col_obj._inherits.keys():
1126                 selection_field(col_obj._inherits)
1127             else:
1128                 return False
1129
1130         def _get_xml_id(self, cr, uid, r):
1131             model_data = self.pool.get('ir.model.data')
1132             data_ids = model_data.search(cr, uid, [('model', '=', r._model._name), ('res_id', '=', r['id'])])
1133             if len(data_ids):
1134                 d = model_data.read(cr, uid, data_ids, ['name', 'module'])[0]
1135                 if d['module']:
1136                     r = '%s.%s' % (d['module'], d['name'])
1137                 else:
1138                     r = d['name']
1139             else:
1140                 postfix = 0
1141                 while True:
1142                     n = r._model._table+'_'+str(r['id']) + (postfix and ('_'+str(postfix)) or '' )
1143                     if not model_data.search(cr, uid, [('name', '=', n)]):
1144                         break
1145                     postfix += 1
1146                 model_data.create(cr, SUPERUSER_ID, {
1147                     'name': n,
1148                     'model': r._model._name,
1149                     'res_id': r['id'],
1150                     'module': '__export__',
1151                 })
1152                 r = '__export__.'+n
1153             return r
1154
1155         lines = []
1156         data = map(lambda x: '', range(len(fields)))
1157         done = []
1158         for fpos in range(len(fields)):
1159             f = fields[fpos]
1160             if f:
1161                 r = row
1162                 i = 0
1163                 while i < len(f):
1164                     cols = False
1165                     if f[i] == '.id':
1166                         r = r['id']
1167                     elif f[i] == 'id':
1168                         r = _get_xml_id(self, cr, uid, r)
1169                     else:
1170                         r = r[f[i]]
1171                         # To display external name of selection field when its exported
1172                         if f[i] in self._columns.keys():
1173                             cols = self._columns[f[i]]
1174                         elif f[i] in self._inherit_fields.keys():
1175                             cols = selection_field(self._inherits)
1176                         if cols and cols._type == 'selection':
1177                             sel_list = cols.selection
1178                             if r and type(sel_list) == type([]):
1179                                 r = [x[1] for x in sel_list if r==x[0]]
1180                                 r = r and r[0] or False
1181                     if not r:
1182                         if f[i] in self._columns:
1183                             r = check_type(self._columns[f[i]]._type)
1184                         elif f[i] in self._inherit_fields:
1185                             r = check_type(self._inherit_fields[f[i]][2]._type)
1186                         data[fpos] = r or False
1187                         break
1188                     if isinstance(r, (browse_record_list, list)):
1189                         first = True
1190                         fields2 = map(lambda x: (x[:i+1]==f[:i+1] and x[i+1:]) \
1191                                 or [], fields)
1192                         if fields2 in done:
1193                             if [x for x in fields2 if x]:
1194                                 break
1195                         done.append(fields2)
1196                         if cols and cols._type=='many2many' and len(fields[fpos])>(i+1) and (fields[fpos][i+1]=='id'):
1197                             data[fpos] = ','.join([_get_xml_id(self, cr, uid, x) for x in r])
1198                             break
1199
1200                         for row2 in r:
1201                             lines2 = row2._model.__export_row(cr, uid, row2, fields2, context=context)
1202                             if first:
1203                                 for fpos2 in range(len(fields)):
1204                                     if lines2 and lines2[0][fpos2]:
1205                                         data[fpos2] = lines2[0][fpos2]
1206                                 if not data[fpos]:
1207                                     dt = ''
1208                                     for rr in r:
1209                                         name_relation = self.pool[rr._table_name]._rec_name
1210                                         if isinstance(rr[name_relation], browse_record):
1211                                             rr = rr[name_relation]
1212                                         rr_name = self.pool[rr._table_name].name_get(cr, uid, [rr.id], context=context)
1213                                         rr_name = rr_name and rr_name[0] and rr_name[0][1] or ''
1214                                         dt += tools.ustr(rr_name or '') + ','
1215                                     data[fpos] = dt[:-1]
1216                                     break
1217                                 lines += lines2[1:]
1218                                 first = False
1219                             else:
1220                                 lines += lines2
1221                         break
1222                     i += 1
1223
1224                 if i == len(f):
1225                     if isinstance(r, browse_record):
1226                         r = self.pool[r._table_name].name_get(cr, uid, [r.id], context=context)
1227                         r = r and r[0] and r[0][1] or ''
1228                     if raw_data and cols and cols._type in ('integer', 'boolean', 'float'):
1229                         data[fpos] = r
1230                     elif raw_data and cols and cols._type == 'date':
1231                         data[fpos] = datetime.datetime.strptime(r, tools.DEFAULT_SERVER_DATE_FORMAT).date()
1232                     elif raw_data and cols and cols._type == 'datetime':
1233                         data[fpos] = datetime.datetime.strptime(r, tools.DEFAULT_SERVER_DATETIME_FORMAT)
1234                     else:
1235                         data[fpos] = tools.ustr(r or '')
1236         return [data] + lines
1237
1238     def export_data(self, cr, uid, ids, fields_to_export, raw_data=False, context=None):
1239         """
1240         Export fields for selected objects
1241
1242         :param cr: database cursor
1243         :param uid: current user id
1244         :param ids: list of ids
1245         :param fields_to_export: list of fields
1246         :param raw_data: True to return value in fields type, False for string values
1247         :param context: context arguments, like lang, time zone
1248         :rtype: dictionary with a *datas* matrix
1249
1250         This method is used when exporting data via client menu
1251
1252         """
1253         if context is None:
1254             context = {}
1255         cols = self._columns.copy()
1256         for f in self._inherit_fields:
1257             cols.update({f: self._inherit_fields[f][2]})
1258         fields_to_export = map(fix_import_export_id_paths, fields_to_export)
1259         datas = []
1260         for row in self.browse(cr, uid, ids, context):
1261             datas += self.__export_row(cr, uid, row, fields_to_export, raw_data=raw_data, context=context)
1262         return {'datas': datas}
1263
1264     def import_data(self, cr, uid, fields, datas, mode='init', current_module='', noupdate=False, context=None, filename=None):
1265         """
1266         .. deprecated:: 7.0
1267             Use :meth:`~load` instead
1268
1269         Import given data in given module
1270
1271         This method is used when importing data via client menu.
1272
1273         Example of fields to import for a sale.order::
1274
1275             .id,                         (=database_id)
1276             partner_id,                  (=name_search)
1277             order_line/.id,              (=database_id)
1278             order_line/name,
1279             order_line/product_id/id,    (=xml id)
1280             order_line/price_unit,
1281             order_line/product_uom_qty,
1282             order_line/product_uom/id    (=xml_id)
1283
1284         This method returns a 4-tuple with the following structure::
1285
1286             (return_code, errored_resource, error_message, unused)
1287
1288         * The first item is a return code, it is ``-1`` in case of
1289           import error, or the last imported row number in case of success
1290         * The second item contains the record data dict that failed to import
1291           in case of error, otherwise it's 0
1292         * The third item contains an error message string in case of error,
1293           otherwise it's 0
1294         * The last item is currently unused, with no specific semantics
1295
1296         :param fields: list of fields to import
1297         :param datas: data to import
1298         :param mode: 'init' or 'update' for record creation
1299         :param current_module: module name
1300         :param noupdate: flag for record creation
1301         :param filename: optional file to store partial import state for recovery
1302         :returns: 4-tuple in the form (return_code, errored_resource, error_message, unused)
1303         :rtype: (int, dict or 0, str or 0, str or 0)
1304         """
1305         context = dict(context) if context is not None else {}
1306         context['_import_current_module'] = current_module
1307
1308         fields = map(fix_import_export_id_paths, fields)
1309         ir_model_data_obj = self.pool.get('ir.model.data')
1310
1311         def log(m):
1312             if m['type'] == 'error':
1313                 raise Exception(m['message'])
1314
1315         if config.get('import_partial') and filename:
1316             with open(config.get('import_partial'), 'rb') as partial_import_file:
1317                 data = pickle.load(partial_import_file)
1318                 position = data.get(filename, 0)
1319
1320         position = 0
1321         try:
1322             for res_id, xml_id, res, info in self._convert_records(cr, uid,
1323                             self._extract_records(cr, uid, fields, datas,
1324                                                   context=context, log=log),
1325                             context=context, log=log):
1326                 ir_model_data_obj._update(cr, uid, self._name,
1327                      current_module, res, mode=mode, xml_id=xml_id,
1328                      noupdate=noupdate, res_id=res_id, context=context)
1329                 position = info.get('rows', {}).get('to', 0) + 1
1330                 if config.get('import_partial') and filename and (not (position%100)):
1331                     with open(config.get('import_partial'), 'rb') as partial_import:
1332                         data = pickle.load(partial_import)
1333                     data[filename] = position
1334                     with open(config.get('import_partial'), 'wb') as partial_import:
1335                         pickle.dump(data, partial_import)
1336                     if context.get('defer_parent_store_computation'):
1337                         self._parent_store_compute(cr)
1338                     cr.commit()
1339         except Exception, e:
1340             cr.rollback()
1341             return -1, {}, 'Line %d : %s' % (position + 1, tools.ustr(e)), ''
1342
1343         if context.get('defer_parent_store_computation'):
1344             self._parent_store_compute(cr)
1345         return position, 0, 0, 0
1346
1347     def load(self, cr, uid, fields, data, context=None):
1348         """
1349         Attempts to load the data matrix, and returns a list of ids (or
1350         ``False`` if there was an error and no id could be generated) and a
1351         list of messages.
1352
1353         The ids are those of the records created and saved (in database), in
1354         the same order they were extracted from the file. They can be passed
1355         directly to :meth:`~read`
1356
1357         :param fields: list of fields to import, at the same index as the corresponding data
1358         :type fields: list(str)
1359         :param data: row-major matrix of data to import
1360         :type data: list(list(str))
1361         :param dict context:
1362         :returns: {ids: list(int)|False, messages: [Message]}
1363         """
1364         cr.execute('SAVEPOINT model_load')
1365         messages = []
1366
1367         fields = map(fix_import_export_id_paths, fields)
1368         ModelData = self.pool['ir.model.data'].clear_caches()
1369
1370         fg = self.fields_get(cr, uid, context=context)
1371
1372         mode = 'init'
1373         current_module = ''
1374         noupdate = False
1375
1376         ids = []
1377         for id, xid, record, info in self._convert_records(cr, uid,
1378                 self._extract_records(cr, uid, fields, data,
1379                                       context=context, log=messages.append),
1380                 context=context, log=messages.append):
1381             try:
1382                 cr.execute('SAVEPOINT model_load_save')
1383             except psycopg2.InternalError, e:
1384                 # broken transaction, exit and hope the source error was
1385                 # already logged
1386                 if not any(message['type'] == 'error' for message in messages):
1387                     messages.append(dict(info, type='error',message=
1388                         u"Unknown database error: '%s'" % e))
1389                 break
1390             try:
1391                 ids.append(ModelData._update(cr, uid, self._name,
1392                      current_module, record, mode=mode, xml_id=xid,
1393                      noupdate=noupdate, res_id=id, context=context))
1394                 cr.execute('RELEASE SAVEPOINT model_load_save')
1395             except psycopg2.Warning, e:
1396                 messages.append(dict(info, type='warning', message=str(e)))
1397                 cr.execute('ROLLBACK TO SAVEPOINT model_load_save')
1398             except psycopg2.Error, e:
1399                 messages.append(dict(
1400                     info, type='error',
1401                     **PGERROR_TO_OE[e.pgcode](self, fg, info, e)))
1402                 # Failed to write, log to messages, rollback savepoint (to
1403                 # avoid broken transaction) and keep going
1404                 cr.execute('ROLLBACK TO SAVEPOINT model_load_save')
1405             except Exception, e:
1406                 message = (_('Unknown error during import:') +
1407                            u' %s: %s' % (type(e), unicode(e)))
1408                 moreinfo = _('Resolve other errors first')
1409                 messages.append(dict(info, type='error',
1410                                      message=message,
1411                                      moreinfo=moreinfo))
1412                 # Failed for some reason, perhaps due to invalid data supplied,
1413                 # rollback savepoint and keep going
1414                 cr.execute('ROLLBACK TO SAVEPOINT model_load_save')
1415         if any(message['type'] == 'error' for message in messages):
1416             cr.execute('ROLLBACK TO SAVEPOINT model_load')
1417             ids = False
1418         return {'ids': ids, 'messages': messages}
1419     def _extract_records(self, cr, uid, fields_, data,
1420                          context=None, log=lambda a: None):
1421         """ Generates record dicts from the data sequence.
1422
1423         The result is a generator of dicts mapping field names to raw
1424         (unconverted, unvalidated) values.
1425
1426         For relational fields, if sub-fields were provided the value will be
1427         a list of sub-records
1428
1429         The following sub-fields may be set on the record (by key):
1430         * None is the name_get for the record (to use with name_create/name_search)
1431         * "id" is the External ID for the record
1432         * ".id" is the Database ID for the record
1433         """
1434         columns = dict((k, v.column) for k, v in self._all_columns.iteritems())
1435         # Fake columns to avoid special cases in extractor
1436         columns[None] = fields.char('rec_name')
1437         columns['id'] = fields.char('External ID')
1438         columns['.id'] = fields.integer('Database ID')
1439
1440         # m2o fields can't be on multiple lines so exclude them from the
1441         # is_relational field rows filter, but special-case it later on to
1442         # be handled with relational fields (as it can have subfields)
1443         is_relational = lambda field: columns[field]._type in ('one2many', 'many2many', 'many2one')
1444         get_o2m_values = itemgetter_tuple(
1445             [index for index, field in enumerate(fields_)
1446                   if columns[field[0]]._type == 'one2many'])
1447         get_nono2m_values = itemgetter_tuple(
1448             [index for index, field in enumerate(fields_)
1449                   if columns[field[0]]._type != 'one2many'])
1450         # Checks if the provided row has any non-empty non-relational field
1451         def only_o2m_values(row, f=get_nono2m_values, g=get_o2m_values):
1452             return any(g(row)) and not any(f(row))
1453
1454         index = 0
1455         while True:
1456             if index >= len(data): return
1457
1458             row = data[index]
1459             # copy non-relational fields to record dict
1460             record = dict((field[0], value)
1461                 for field, value in itertools.izip(fields_, row)
1462                 if not is_relational(field[0]))
1463
1464             # Get all following rows which have relational values attached to
1465             # the current record (no non-relational values)
1466             record_span = itertools.takewhile(
1467                 only_o2m_values, itertools.islice(data, index + 1, None))
1468             # stitch record row back on for relational fields
1469             record_span = list(itertools.chain([row], record_span))
1470             for relfield in set(
1471                     field[0] for field in fields_
1472                              if is_relational(field[0])):
1473                 column = columns[relfield]
1474                 # FIXME: how to not use _obj without relying on fields_get?
1475                 Model = self.pool[column._obj]
1476
1477                 # get only cells for this sub-field, should be strictly
1478                 # non-empty, field path [None] is for name_get column
1479                 indices, subfields = zip(*((index, field[1:] or [None])
1480                                            for index, field in enumerate(fields_)
1481                                            if field[0] == relfield))
1482
1483                 # return all rows which have at least one value for the
1484                 # subfields of relfield
1485                 relfield_data = filter(any, map(itemgetter_tuple(indices), record_span))
1486                 record[relfield] = [subrecord
1487                     for subrecord, _subinfo in Model._extract_records(
1488                         cr, uid, subfields, relfield_data,
1489                         context=context, log=log)]
1490
1491             yield record, {'rows': {
1492                 'from': index,
1493                 'to': index + len(record_span) - 1
1494             }}
1495             index += len(record_span)
1496     def _convert_records(self, cr, uid, records,
1497                          context=None, log=lambda a: None):
1498         """ Converts records from the source iterable (recursive dicts of
1499         strings) into forms which can be written to the database (via
1500         self.create or (ir.model.data)._update)
1501
1502         :returns: a list of triplets of (id, xid, record)
1503         :rtype: list((int|None, str|None, dict))
1504         """
1505         if context is None: context = {}
1506         Converter = self.pool['ir.fields.converter']
1507         columns = dict((k, v.column) for k, v in self._all_columns.iteritems())
1508         Translation = self.pool['ir.translation']
1509         field_names = dict(
1510             (f, (Translation._get_source(cr, uid, self._name + ',' + f, 'field',
1511                                          context.get('lang'))
1512                  or column.string))
1513             for f, column in columns.iteritems())
1514
1515         convert = Converter.for_model(cr, uid, self, context=context)
1516
1517         def _log(base, field, exception):
1518             type = 'warning' if isinstance(exception, Warning) else 'error'
1519             # logs the logical (not human-readable) field name for automated
1520             # processing of response, but injects human readable in message
1521             record = dict(base, type=type, field=field,
1522                           message=unicode(exception.args[0]) % base)
1523             if len(exception.args) > 1 and exception.args[1]:
1524                 record.update(exception.args[1])
1525             log(record)
1526
1527         stream = CountingStream(records)
1528         for record, extras in stream:
1529             dbid = False
1530             xid = False
1531             # name_get/name_create
1532             if None in record: pass
1533             # xid
1534             if 'id' in record:
1535                 xid = record['id']
1536             # dbid
1537             if '.id' in record:
1538                 try:
1539                     dbid = int(record['.id'])
1540                 except ValueError:
1541                     # in case of overridden id column
1542                     dbid = record['.id']
1543                 if not self.search(cr, uid, [('id', '=', dbid)], context=context):
1544                     log(dict(extras,
1545                         type='error',
1546                         record=stream.index,
1547                         field='.id',
1548                         message=_(u"Unknown database identifier '%s'") % dbid))
1549                     dbid = False
1550
1551             converted = convert(record, lambda field, err:\
1552                 _log(dict(extras, record=stream.index, field=field_names[field]), field, err))
1553
1554             yield dbid, xid, converted, dict(extras, record=stream.index)
1555
1556     def _validate(self, cr, uid, ids, context=None):
1557         context = context or {}
1558         lng = context.get('lang')
1559         trans = self.pool.get('ir.translation')
1560         error_msgs = []
1561         for constraint in self._constraints:
1562             fun, msg, fields = constraint
1563             try:
1564                 # We don't pass around the context here: validation code
1565                 # must always yield the same results.
1566                 valid = fun(self, cr, uid, ids)
1567                 extra_error = None 
1568             except Exception, e:
1569                 _logger.debug('Exception while validating constraint', exc_info=True)
1570                 valid = False
1571                 extra_error = tools.ustr(e)
1572             if not valid:
1573                 # Check presence of __call__ directly instead of using
1574                 # callable() because it will be deprecated as of Python 3.0
1575                 if hasattr(msg, '__call__'):
1576                     translated_msg = msg(self, cr, uid, ids, context=context)
1577                     if isinstance(translated_msg, tuple):
1578                         translated_msg = translated_msg[0] % translated_msg[1]
1579                 else:
1580                     translated_msg = trans._get_source(cr, uid, self._name, 'constraint', lng, msg)
1581                 if extra_error:
1582                     translated_msg += "\n\n%s\n%s" % (_('Error details:'), extra_error)
1583                 error_msgs.append(
1584                         _("The field(s) `%s` failed against a constraint: %s") % (', '.join(fields), translated_msg)
1585                 )
1586         if error_msgs:
1587             raise except_orm('ValidateError', '\n'.join(error_msgs))
1588
1589     def default_get(self, cr, uid, fields_list, context=None):
1590         """
1591         Returns default values for the fields in fields_list.
1592
1593         :param fields_list: list of fields to get the default values for (example ['field1', 'field2',])
1594         :type fields_list: list
1595         :param context: optional context dictionary - it may contains keys for specifying certain options
1596                         like ``context_lang`` (language) or ``context_tz`` (timezone) to alter the results of the call.
1597                         It may contain keys in the form ``default_XXX`` (where XXX is a field name), to set
1598                         or override a default value for a field.
1599                         A special ``bin_size`` boolean flag may also be passed in the context to request the
1600                         value of all fields.binary columns to be returned as the size of the binary instead of its
1601                         contents. This can also be selectively overriden by passing a field-specific flag
1602                         in the form ``bin_size_XXX: True/False`` where ``XXX`` is the name of the field.
1603                         Note: The ``bin_size_XXX`` form is new in OpenERP v6.0.
1604         :return: dictionary of the default values (set on the object model class, through user preferences, or in the context)
1605         """
1606         # trigger view init hook
1607         self.view_init(cr, uid, fields_list, context)
1608
1609         if not context:
1610             context = {}
1611         defaults = {}
1612
1613         # get the default values for the inherited fields
1614         for t in self._inherits.keys():
1615             defaults.update(self.pool[t].default_get(cr, uid, fields_list, context))
1616
1617         # get the default values defined in the object
1618         for f in fields_list:
1619             if f in self._defaults:
1620                 if callable(self._defaults[f]):
1621                     defaults[f] = self._defaults[f](self, cr, uid, context)
1622                 else:
1623                     defaults[f] = self._defaults[f]
1624
1625             fld_def = ((f in self._columns) and self._columns[f]) \
1626                     or ((f in self._inherit_fields) and self._inherit_fields[f][2]) \
1627                     or False
1628
1629             if isinstance(fld_def, fields.property):
1630                 property_obj = self.pool.get('ir.property')
1631                 prop_value = property_obj.get(cr, uid, f, self._name, context=context)
1632                 if prop_value:
1633                     if isinstance(prop_value, (browse_record, browse_null)):
1634                         defaults[f] = prop_value.id
1635                     else:
1636                         defaults[f] = prop_value
1637                 else:
1638                     if f not in defaults:
1639                         defaults[f] = False
1640
1641         # get the default values set by the user and override the default
1642         # values defined in the object
1643         ir_values_obj = self.pool.get('ir.values')
1644         res = ir_values_obj.get(cr, uid, 'default', False, [self._name])
1645         for id, field, field_value in res:
1646             if field in fields_list:
1647                 fld_def = (field in self._columns) and self._columns[field] or self._inherit_fields[field][2]
1648                 if fld_def._type == 'many2one':
1649                     obj = self.pool[fld_def._obj]
1650                     if not obj.search(cr, uid, [('id', '=', field_value or False)]):
1651                         continue
1652                 if fld_def._type == 'many2many':
1653                     obj = self.pool[fld_def._obj]
1654                     field_value2 = []
1655                     for i in range(len(field_value or [])):
1656                         if not obj.search(cr, uid, [('id', '=',
1657                             field_value[i])]):
1658                             continue
1659                         field_value2.append(field_value[i])
1660                     field_value = field_value2
1661                 if fld_def._type == 'one2many':
1662                     obj = self.pool[fld_def._obj]
1663                     field_value2 = []
1664                     for i in range(len(field_value or [])):
1665                         field_value2.append({})
1666                         for field2 in field_value[i]:
1667                             if field2 in obj._columns.keys() and obj._columns[field2]._type == 'many2one':
1668                                 obj2 = self.pool[obj._columns[field2]._obj]
1669                                 if not obj2.search(cr, uid,
1670                                         [('id', '=', field_value[i][field2])]):
1671                                     continue
1672                             elif field2 in obj._inherit_fields.keys() and obj._inherit_fields[field2][2]._type == 'many2one':
1673                                 obj2 = self.pool[obj._inherit_fields[field2][2]._obj]
1674                                 if not obj2.search(cr, uid,
1675                                         [('id', '=', field_value[i][field2])]):
1676                                     continue
1677                             # TODO add test for many2many and one2many
1678                             field_value2[i][field2] = field_value[i][field2]
1679                     field_value = field_value2
1680                 defaults[field] = field_value
1681
1682         # get the default values from the context
1683         for key in context or {}:
1684             if key.startswith('default_') and (key[8:] in fields_list):
1685                 defaults[key[8:]] = context[key]
1686         return defaults
1687
1688     def fields_get_keys(self, cr, user, context=None):
1689         res = self._columns.keys()
1690         # TODO I believe this loop can be replace by
1691         # res.extend(self._inherit_fields.key())
1692         for parent in self._inherits:
1693             res.extend(self.pool[parent].fields_get_keys(cr, user, context))
1694         return res
1695
1696     def _rec_name_fallback(self, cr, uid, context=None):
1697         rec_name = self._rec_name
1698         if rec_name not in self._columns:
1699             rec_name = self._columns.keys()[0] if len(self._columns.keys()) > 0 else "id"
1700         return rec_name
1701
1702     #
1703     # Overload this method if you need a window title which depends on the context
1704     #
1705     def view_header_get(self, cr, user, view_id=None, view_type='form', context=None):
1706         return False
1707
1708     def user_has_groups(self, cr, uid, groups, context=None):
1709         """Return true if the user is at least member of one of the groups
1710            in groups_str. Typically used to resolve ``groups`` attribute
1711            in view and model definitions.
1712
1713            :param str groups: comma-separated list of fully-qualified group
1714                               external IDs, e.g.: ``base.group_user,base.group_system``
1715            :return: True if the current user is a member of one of the
1716                     given groups
1717         """
1718         return any([self.pool.get('res.users').has_group(cr, uid, group_ext_id)
1719                         for group_ext_id in groups.split(',')])
1720
1721     def _get_default_form_view(self, cr, user, context=None):
1722         """ Generates a default single-line form view using all fields
1723         of the current model except the m2m and o2m ones.
1724
1725         :param cr: database cursor
1726         :param int user: user id
1727         :param dict context: connection context
1728         :returns: a form view as an lxml document
1729         :rtype: etree._Element
1730         """
1731         view = etree.Element('form', string=self._description)
1732         # TODO it seems fields_get can be replaced by _all_columns (no need for translation)
1733         for field, descriptor in self.fields_get(cr, user, context=context).iteritems():
1734             if descriptor['type'] in ('one2many', 'many2many'):
1735                 continue
1736             etree.SubElement(view, 'field', name=field)
1737             if descriptor['type'] == 'text':
1738                 etree.SubElement(view, 'newline')
1739         return view
1740
1741     def _get_default_search_view(self, cr, user, context=None):
1742         """ Generates a single-field search view, based on _rec_name.
1743
1744         :param cr: database cursor
1745         :param int user: user id
1746         :param dict context: connection context
1747         :returns: a tree view as an lxml document
1748         :rtype: etree._Element
1749         """
1750         view = etree.Element('search', string=self._description)
1751         etree.SubElement(view, 'field', name=self._rec_name_fallback(cr, user, context))
1752         return view
1753
1754     def _get_default_tree_view(self, cr, user, context=None):
1755         """ Generates a single-field tree view, based on _rec_name.
1756
1757         :param cr: database cursor
1758         :param int user: user id
1759         :param dict context: connection context
1760         :returns: a tree view as an lxml document
1761         :rtype: etree._Element
1762         """
1763         view = etree.Element('tree', string=self._description)
1764         etree.SubElement(view, 'field', name=self._rec_name_fallback(cr, user, context))
1765         return view
1766
1767     def _get_default_calendar_view(self, cr, user, context=None):
1768         """ Generates a default calendar view by trying to infer
1769         calendar fields from a number of pre-set attribute names
1770
1771         :param cr: database cursor
1772         :param int user: user id
1773         :param dict context: connection context
1774         :returns: a calendar view
1775         :rtype: etree._Element
1776         """
1777         def set_first_of(seq, in_, to):
1778             """Sets the first value of ``seq`` also found in ``in_`` to
1779             the ``to`` attribute of the view being closed over.
1780
1781             Returns whether it's found a suitable value (and set it on
1782             the attribute) or not
1783             """
1784             for item in seq:
1785                 if item in in_:
1786                     view.set(to, item)
1787                     return True
1788             return False
1789
1790         view = etree.Element('calendar', string=self._description)
1791         etree.SubElement(view, 'field', name=self._rec_name_fallback(cr, user, context))
1792
1793         if self._date_name not in self._columns:
1794             date_found = False
1795             for dt in ['date', 'date_start', 'x_date', 'x_date_start']:
1796                 if dt in self._columns:
1797                     self._date_name = dt
1798                     date_found = True
1799                     break
1800
1801             if not date_found:
1802                 raise except_orm(_('Invalid Object Architecture!'), _("Insufficient fields for Calendar View!"))
1803         view.set('date_start', self._date_name)
1804
1805         set_first_of(["user_id", "partner_id", "x_user_id", "x_partner_id"],
1806                      self._columns, 'color')
1807
1808         if not set_first_of(["date_stop", "date_end", "x_date_stop", "x_date_end"],
1809                             self._columns, 'date_stop'):
1810             if not set_first_of(["date_delay", "planned_hours", "x_date_delay", "x_planned_hours"],
1811                                 self._columns, 'date_delay'):
1812                 raise except_orm(
1813                     _('Invalid Object Architecture!'),
1814                     _("Insufficient fields to generate a Calendar View for %s, missing a date_stop or a date_delay" % self._name))
1815
1816         return view
1817
1818     def fields_view_get(self, cr, uid, view_id=None, view_type='form', context=None, toolbar=False, submenu=False):
1819         """
1820         Get the detailed composition of the requested view like fields, model, view architecture
1821
1822         :param view_id: id of the view or None
1823         :param view_type: type of the view to return if view_id is None ('form', tree', ...)
1824         :param toolbar: true to include contextual actions
1825         :param submenu: deprecated
1826         :return: dictionary describing the composition of the requested view (including inherited views and extensions)
1827         :raise AttributeError:
1828                             * if the inherited view has unknown position to work with other than 'before', 'after', 'inside', 'replace'
1829                             * if some tag other than 'position' is found in parent view
1830         :raise Invalid ArchitectureError: if there is view type other than form, tree, calendar, search etc defined on the structure
1831         """
1832         if context is None:
1833             context = {}
1834         View = self.pool['ir.ui.view']
1835
1836         result = {
1837             'model': self._name,
1838             'field_parent': False,
1839         }
1840
1841         # try to find a view_id if none provided
1842         if not view_id:
1843             # <view_type>_view_ref in context can be used to overrride the default view
1844             view_ref_key = view_type + '_view_ref'
1845             view_ref = context.get(view_ref_key)
1846             if view_ref:
1847                 if '.' in view_ref:
1848                     module, view_ref = view_ref.split('.', 1)
1849                     cr.execute("SELECT res_id FROM ir_model_data WHERE model='ir.ui.view' AND module=%s AND name=%s", (module, view_ref))
1850                     view_ref_res = cr.fetchone()
1851                     if view_ref_res:
1852                         view_id = view_ref_res[0]
1853                 else:
1854                     _logger.warning('%r requires a fully-qualified external id (got: %r for model %s). '
1855                         'Please use the complete `module.view_id` form instead.', view_ref_key, view_ref,
1856                         self._name)
1857
1858             if not view_id:
1859                 # otherwise try to find the lowest priority matching ir.ui.view
1860                 view_id = View.default_view(cr, uid, self._name, view_type, context=context)
1861
1862         # context for post-processing might be overriden
1863         ctx = context
1864         if view_id:
1865             # read the view with inherited views applied
1866             root_view = View.read_combined(cr, uid, view_id, fields=['id', 'name', 'field_parent', 'type', 'model', 'arch'], context=context)
1867             result['arch'] = root_view['arch']
1868             result['name'] = root_view['name']
1869             result['type'] = root_view['type']
1870             result['view_id'] = root_view['id']
1871             result['field_parent'] = root_view['field_parent']
1872             # override context fro postprocessing
1873             if root_view.get('model') != self._name:
1874                 ctx = dict(context, base_model_name=root_view.get('model'))
1875         else:
1876             # fallback on default views methods if no ir.ui.view could be found
1877             try:
1878                 get_func = getattr(self, '_get_default_%s_view' % view_type)
1879                 arch_etree = get_func(cr, uid, context)
1880                 result['arch'] = etree.tostring(arch_etree, encoding='utf-8')
1881                 result['type'] = view_type
1882                 result['name'] = 'default'
1883             except AttributeError:
1884                 raise except_orm(_('Invalid Architecture!'), _("No default view of type '%s' could be found !") % view_type)
1885
1886         # Apply post processing, groups and modifiers etc...
1887         xarch, xfields = View.postprocess_and_fields(cr, uid, self._name, etree.fromstring(result['arch']), view_id, context=ctx)
1888         result['arch'] = xarch
1889         result['fields'] = xfields
1890
1891         # Add related action information if aksed
1892         if toolbar:
1893             toclean = ('report_sxw_content', 'report_rml_content', 'report_sxw', 'report_rml', 'report_sxw_content_data', 'report_rml_content_data')
1894             def clean(x):
1895                 x = x[2]
1896                 for key in toclean:
1897                     x.pop(key, None)
1898                 return x
1899             ir_values_obj = self.pool.get('ir.values')
1900             resprint = ir_values_obj.get(cr, uid, 'action', 'client_print_multi', [(self._name, False)], False, context)
1901             resaction = ir_values_obj.get(cr, uid, 'action', 'client_action_multi', [(self._name, False)], False, context)
1902             resrelate = ir_values_obj.get(cr, uid, 'action', 'client_action_relate', [(self._name, False)], False, context)
1903             resaction = [clean(action) for action in resaction if view_type == 'tree' or not action[2].get('multi')]
1904             resprint = [clean(print_) for print_ in resprint if view_type == 'tree' or not print_[2].get('multi')]
1905             #When multi="True" set it will display only in More of the list view
1906             resrelate = [clean(action) for action in resrelate
1907                          if (action[2].get('multi') and view_type == 'tree') or (not action[2].get('multi') and view_type == 'form')]
1908
1909             for x in itertools.chain(resprint, resaction, resrelate):
1910                 x['string'] = x['name']
1911
1912             result['toolbar'] = {
1913                 'print': resprint,
1914                 'action': resaction,
1915                 'relate': resrelate
1916             }
1917         return result
1918
1919     def get_formview_id(self, cr, uid, id, context=None):
1920         """ Return an view id to open the document with. This method is meant to be
1921             overridden in addons that want to give specific view ids for example.
1922
1923             :param int id: id of the document to open
1924         """
1925         return False
1926
1927     def get_formview_action(self, cr, uid, id, context=None):
1928         """ Return an action to open the document. This method is meant to be
1929             overridden in addons that want to give specific view ids for example.
1930
1931             :param int id: id of the document to open
1932         """
1933         view_id = self.get_formview_id(cr, uid, id, context=context)
1934         return {
1935                 'type': 'ir.actions.act_window',
1936                 'res_model': self._name,
1937                 'view_type': 'form',
1938                 'view_mode': 'form',
1939                 'views': [(view_id, 'form')],
1940                 'target': 'current',
1941                 'res_id': id,
1942             }
1943
1944     def _view_look_dom_arch(self, cr, uid, node, view_id, context=None):
1945         return self.pool['ir.ui.view'].postprocess_and_fields(
1946             cr, uid, self._name, node, view_id, context=context)
1947
1948     def search_count(self, cr, user, args, context=None):
1949         res = self.search(cr, user, args, context=context, count=True)
1950         if isinstance(res, list):
1951             return len(res)
1952         return res
1953
1954     def search(self, cr, user, args, offset=0, limit=None, order=None, context=None, count=False):
1955         """
1956         Search for records based on a search domain.
1957
1958         :param cr: database cursor
1959         :param user: current user id
1960         :param args: list of tuples specifying the search domain [('field_name', 'operator', value), ...]. Pass an empty list to match all records.
1961         :param offset: optional number of results to skip in the returned values (default: 0)
1962         :param limit: optional max number of records to return (default: **None**)
1963         :param order: optional columns to sort by (default: self._order=id )
1964         :param context: optional context arguments, like lang, time zone
1965         :type context: dictionary
1966         :param count: optional (default: **False**), if **True**, returns only the number of records matching the criteria, not their ids
1967         :return: id or list of ids of records matching the criteria
1968         :rtype: integer or list of integers
1969         :raise AccessError: * if user tries to bypass access rules for read on the requested object.
1970
1971         **Expressing a search domain (args)**
1972
1973         Each tuple in the search domain needs to have 3 elements, in the form: **('field_name', 'operator', value)**, where:
1974
1975             * **field_name** must be a valid name of field of the object model, possibly following many-to-one relationships using dot-notation, e.g 'street' or 'partner_id.country' are valid values.
1976             * **operator** must be a string with a valid comparison operator from this list: ``=, !=, >, >=, <, <=, like, ilike, in, not in, child_of, parent_left, parent_right``
1977               The semantics of most of these operators are obvious.
1978               The ``child_of`` operator will look for records who are children or grand-children of a given record,
1979               according to the semantics of this model (i.e following the relationship field named by
1980               ``self._parent_name``, by default ``parent_id``.
1981             * **value** must be a valid value to compare with the values of **field_name**, depending on its type.
1982
1983         Domain criteria can be combined using 3 logical operators than can be added between tuples:  '**&**' (logical AND, default), '**|**' (logical OR), '**!**' (logical NOT).
1984         These are **prefix** operators and the arity of the '**&**' and '**|**' operator is 2, while the arity of the '**!**' is just 1.
1985         Be very careful about this when you combine them the first time.
1986
1987         Here is an example of searching for Partners named *ABC* from Belgium and Germany whose language is not english ::
1988
1989             [('name','=','ABC'),'!',('language.code','=','en_US'),'|',('country_id.code','=','be'),('country_id.code','=','de'))
1990
1991         The '&' is omitted as it is the default, and of course we could have used '!=' for the language, but what this domain really represents is::
1992
1993             (name is 'ABC' AND (language is NOT english) AND (country is Belgium OR Germany))
1994
1995         """
1996         return self._search(cr, user, args, offset=offset, limit=limit, order=order, context=context, count=count)
1997
1998     def name_get(self, cr, user, ids, context=None):
1999         """Returns the preferred display value (text representation) for the records with the
2000            given ``ids``. By default this will be the value of the ``name`` column, unless
2001            the model implements a custom behavior.
2002            Can sometimes be seen as the inverse function of :meth:`~.name_search`, but it is not
2003            guaranteed to be.
2004
2005            :rtype: list(tuple)
2006            :return: list of pairs ``(id,text_repr)`` for all records with the given ``ids``.
2007         """
2008         if not ids:
2009             return []
2010         if isinstance(ids, (int, long)):
2011             ids = [ids]
2012
2013         if self._rec_name in self._all_columns:
2014             rec_name_column = self._all_columns[self._rec_name].column
2015             return [(r['id'], rec_name_column.as_display_name(cr, user, self, r[self._rec_name], context=context))
2016                         for r in self.read(cr, user, ids, [self._rec_name],
2017                                        load='_classic_write', context=context)]
2018         return [(id, "%s,%s" % (self._name, id)) for id in ids]
2019
2020     def name_search(self, cr, user, name='', args=None, operator='ilike', context=None, limit=100):
2021         """Search for records that have a display name matching the given ``name`` pattern if compared
2022            with the given ``operator``, while also matching the optional search domain (``args``).
2023            This is used for example to provide suggestions based on a partial value for a relational
2024            field.
2025            Sometimes be seen as the inverse function of :meth:`~.name_get`, but it is not
2026            guaranteed to be.
2027
2028            This method is equivalent to calling :meth:`~.search` with a search domain based on ``name``
2029            and then :meth:`~.name_get` on the result of the search.
2030
2031            :param list args: optional search domain (see :meth:`~.search` for syntax),
2032                              specifying further restrictions
2033            :param str operator: domain operator for matching the ``name`` pattern, such as ``'like'``
2034                                 or ``'='``.
2035            :param int limit: optional max number of records to return
2036            :rtype: list
2037            :return: list of pairs ``(id,text_repr)`` for all matching records.
2038         """
2039         return self._name_search(cr, user, name, args, operator, context, limit)
2040
2041     def name_create(self, cr, uid, name, context=None):
2042         """Creates a new record by calling :meth:`~.create` with only one
2043            value provided: the name of the new record (``_rec_name`` field).
2044            The new record will also be initialized with any default values applicable
2045            to this model, or provided through the context. The usual behavior of
2046            :meth:`~.create` applies.
2047            Similarly, this method may raise an exception if the model has multiple
2048            required fields and some do not have default values.
2049
2050            :param name: name of the record to create
2051
2052            :rtype: tuple
2053            :return: the :meth:`~.name_get` pair value for the newly-created record.
2054         """
2055         rec_id = self.create(cr, uid, {self._rec_name: name}, context)
2056         return self.name_get(cr, uid, [rec_id], context)[0]
2057
2058     # private implementation of name_search, allows passing a dedicated user for the name_get part to
2059     # solve some access rights issues
2060     def _name_search(self, cr, user, name='', args=None, operator='ilike', context=None, limit=100, name_get_uid=None):
2061         if args is None:
2062             args = []
2063         if context is None:
2064             context = {}
2065         args = args[:]
2066         # optimize out the default criterion of ``ilike ''`` that matches everything
2067         if not (name == '' and operator == 'ilike'):
2068             args += [(self._rec_name, operator, name)]
2069         access_rights_uid = name_get_uid or user
2070         ids = self._search(cr, user, args, limit=limit, context=context, access_rights_uid=access_rights_uid)
2071         res = self.name_get(cr, access_rights_uid, ids, context)
2072         return res
2073
2074     def read_string(self, cr, uid, id, langs, fields=None, context=None):
2075         res = {}
2076         res2 = {}
2077         self.pool.get('ir.translation').check_access_rights(cr, uid, 'read')
2078         if not fields:
2079             fields = self._columns.keys() + self._inherit_fields.keys()
2080         #FIXME: collect all calls to _get_source into one SQL call.
2081         for lang in langs:
2082             res[lang] = {'code': lang}
2083             for f in fields:
2084                 if f in self._columns:
2085                     res_trans = self.pool.get('ir.translation')._get_source(cr, uid, self._name+','+f, 'field', lang)
2086                     if res_trans:
2087                         res[lang][f] = res_trans
2088                     else:
2089                         res[lang][f] = self._columns[f].string
2090         for table in self._inherits:
2091             cols = intersect(self._inherit_fields.keys(), fields)
2092             res2 = self.pool[table].read_string(cr, uid, id, langs, cols, context)
2093         for lang in res2:
2094             if lang in res:
2095                 res[lang]['code'] = lang
2096             for f in res2[lang]:
2097                 res[lang][f] = res2[lang][f]
2098         return res
2099
2100     def write_string(self, cr, uid, id, langs, vals, context=None):
2101         self.pool.get('ir.translation').check_access_rights(cr, uid, 'write')
2102         #FIXME: try to only call the translation in one SQL
2103         for lang in langs:
2104             for field in vals:
2105                 if field in self._columns:
2106                     src = self._columns[field].string
2107                     self.pool.get('ir.translation')._set_ids(cr, uid, self._name+','+field, 'field', lang, [0], vals[field], src)
2108         for table in self._inherits:
2109             cols = intersect(self._inherit_fields.keys(), vals)
2110             if cols:
2111                 self.pool[table].write_string(cr, uid, id, langs, vals, context)
2112         return True
2113
2114     def _add_missing_default_values(self, cr, uid, values, context=None):
2115         missing_defaults = []
2116         avoid_tables = [] # avoid overriding inherited values when parent is set
2117         for tables, parent_field in self._inherits.items():
2118             if parent_field in values:
2119                 avoid_tables.append(tables)
2120         for field in self._columns.keys():
2121             if not field in values:
2122                 missing_defaults.append(field)
2123         for field in self._inherit_fields.keys():
2124             if (field not in values) and (self._inherit_fields[field][0] not in avoid_tables):
2125                 missing_defaults.append(field)
2126
2127         if len(missing_defaults):
2128             # override defaults with the provided values, never allow the other way around
2129             defaults = self.default_get(cr, uid, missing_defaults, context)
2130             for dv in defaults:
2131                 if ((dv in self._columns and self._columns[dv]._type == 'many2many') \
2132                      or (dv in self._inherit_fields and self._inherit_fields[dv][2]._type == 'many2many')) \
2133                         and defaults[dv] and isinstance(defaults[dv][0], (int, long)):
2134                     defaults[dv] = [(6, 0, defaults[dv])]
2135                 if (dv in self._columns and self._columns[dv]._type == 'one2many' \
2136                     or (dv in self._inherit_fields and self._inherit_fields[dv][2]._type == 'one2many')) \
2137                         and isinstance(defaults[dv], (list, tuple)) and defaults[dv] and isinstance(defaults[dv][0], dict):
2138                     defaults[dv] = [(0, 0, x) for x in defaults[dv]]
2139             defaults.update(values)
2140             values = defaults
2141         return values
2142
2143     def clear_caches(self):
2144         """ Clear the caches
2145
2146         This clears the caches associated to methods decorated with
2147         ``tools.ormcache`` or ``tools.ormcache_multi``.
2148         """
2149         try:
2150             getattr(self, '_ormcache')
2151             self._ormcache = {}
2152             self.pool._any_cache_cleared = True
2153         except AttributeError:
2154             pass
2155
2156
2157     def _read_group_fill_results(self, cr, uid, domain, groupby, remaining_groupbys,
2158                                  aggregated_fields, count_field,
2159                                  read_group_result, read_group_order=None, context=None):
2160         """Helper method for filling in empty groups for all possible values of
2161            the field being grouped by"""
2162
2163         # self._group_by_full should map groupable fields to a method that returns
2164         # a list of all aggregated values that we want to display for this field,
2165         # in the form of a m2o-like pair (key,label).
2166         # This is useful to implement kanban views for instance, where all columns
2167         # should be displayed even if they don't contain any record.
2168
2169         # Grab the list of all groups that should be displayed, including all present groups
2170         present_group_ids = [x[groupby][0] for x in read_group_result if x[groupby]]
2171         all_groups,folded = self._group_by_full[groupby](self, cr, uid, present_group_ids, domain,
2172                                                   read_group_order=read_group_order,
2173                                                   access_rights_uid=openerp.SUPERUSER_ID,
2174                                                   context=context)
2175
2176         result_template = dict.fromkeys(aggregated_fields, False)
2177         result_template[groupby + '_count'] = 0
2178         if remaining_groupbys:
2179             result_template['__context'] = {'group_by': remaining_groupbys}
2180
2181         # Merge the left_side (current results as dicts) with the right_side (all
2182         # possible values as m2o pairs). Both lists are supposed to be using the
2183         # same ordering, and can be merged in one pass.
2184         result = []
2185         known_values = {}
2186
2187         def append_left(left_side):
2188             grouped_value = left_side[groupby] and left_side[groupby][0]
2189             if not grouped_value in known_values:
2190                 result.append(left_side)
2191                 known_values[grouped_value] = left_side
2192             else:
2193                 known_values[grouped_value].update({count_field: left_side[count_field]})
2194         def append_right(right_side):
2195             grouped_value = right_side[0]
2196             if not grouped_value in known_values:
2197                 line = dict(result_template)
2198                 line[groupby] = right_side
2199                 line['__domain'] = [(groupby,'=',grouped_value)] + domain
2200                 result.append(line)
2201                 known_values[grouped_value] = line
2202         while read_group_result or all_groups:
2203             left_side = read_group_result[0] if read_group_result else None
2204             right_side = all_groups[0] if all_groups else None
2205             assert left_side is None or left_side[groupby] is False \
2206                  or isinstance(left_side[groupby], (tuple,list)), \
2207                 'M2O-like pair expected, got %r' % left_side[groupby]
2208             assert right_side is None or isinstance(right_side, (tuple,list)), \
2209                 'M2O-like pair expected, got %r' % right_side
2210             if left_side is None:
2211                 append_right(all_groups.pop(0))
2212             elif right_side is None:
2213                 append_left(read_group_result.pop(0))
2214             elif left_side[groupby] == right_side:
2215                 append_left(read_group_result.pop(0))
2216                 all_groups.pop(0) # discard right_side
2217             elif not left_side[groupby] or not left_side[groupby][0]:
2218                 # left side == "Undefined" entry, not present on right_side
2219                 append_left(read_group_result.pop(0))
2220             else:
2221                 append_right(all_groups.pop(0))
2222
2223         if folded:
2224             for r in result:
2225                 r['__fold'] = folded.get(r[groupby] and r[groupby][0], False)
2226         return result
2227
2228     def _read_group_prepare(self, orderby, aggregated_fields, annotated_groupbys, query):
2229         """
2230         Prepares the GROUP BY and ORDER BY terms for the read_group method. Adds the missing JOIN clause
2231         to the query if order should be computed against m2o field. 
2232         :param orderby: the orderby definition in the form "%(field)s %(order)s"
2233         :param aggregated_fields: list of aggregated fields in the query
2234         :param annotated_groupbys: list of dictionaries returned by _read_group_process_groupby
2235                 These dictionaries contains the qualified name of each groupby
2236                 (fully qualified SQL name for the corresponding field),
2237                 and the (non raw) field name.
2238         :param osv.Query query: the query under construction
2239         :return: (groupby_terms, orderby_terms)
2240         """
2241         orderby_terms = []
2242         groupby_terms = [gb['qualified_field'] for gb in annotated_groupbys]
2243         groupby_fields = [gb['groupby'] for gb in annotated_groupbys]
2244         if not orderby:
2245             return groupby_terms, orderby_terms
2246
2247         self._check_qorder(orderby)
2248         for order_part in orderby.split(','):
2249             order_split = order_part.split()
2250             order_field = order_split[0]
2251             if order_field in groupby_fields:
2252
2253                 if self._all_columns[order_field.split(':')[0]].column._type == 'many2one':
2254                     order_clause = self._generate_order_by(order_part, query).replace('ORDER BY ', '')
2255                     if order_clause:
2256                         orderby_terms.append(order_clause)
2257                         groupby_terms += [order_term.split()[0] for order_term in order_clause.split(',')]
2258                 else:
2259                     order = '"%s" %s' % (order_field, '' if len(order_split) == 1 else order_split[1])
2260                     orderby_terms.append(order)
2261             elif order_field in aggregated_fields:
2262                 orderby_terms.append(order_part)
2263             else:
2264                 # Cannot order by a field that will not appear in the results (needs to be grouped or aggregated)
2265                 _logger.warn('%s: read_group order by `%s` ignored, cannot sort on empty columns (not grouped/aggregated)',
2266                              self._name, order_part)
2267         return groupby_terms, orderby_terms
2268
2269     def _read_group_process_groupby(self, gb, query, context):
2270         """
2271             Helper method to collect important information about groupbys: raw
2272             field name, type, time informations, qualified name, ...
2273         """
2274         split = gb.split(':')
2275         field_type = self._all_columns[split[0]].column._type
2276         gb_function = split[1] if len(split) == 2 else None
2277         temporal = field_type in ('date', 'datetime')
2278         tz_convert = field_type == 'datetime' and context.get('tz') in pytz.all_timezones
2279         qualified_field = self._inherits_join_calc(split[0], query)
2280         if temporal:
2281             display_formats = {
2282                 'day': 'dd MMM YYYY', 
2283                 'week': "'W'w YYYY", 
2284                 'month': 'MMMM YYYY', 
2285                 'quarter': 'QQQ YYYY', 
2286                 'year': 'YYYY'
2287             }
2288             time_intervals = {
2289                 'day': dateutil.relativedelta.relativedelta(days=1),
2290                 'week': datetime.timedelta(days=7),
2291                 'month': dateutil.relativedelta.relativedelta(months=1),
2292                 'quarter': dateutil.relativedelta.relativedelta(months=3),
2293                 'year': dateutil.relativedelta.relativedelta(years=1)
2294             }
2295             if tz_convert:
2296                 qualified_field = "timezone('%s', timezone('UTC',%s))" % (context.get('tz', 'UTC'), qualified_field)
2297             qualified_field = "date_trunc('%s', %s)" % (gb_function or 'month', qualified_field)
2298         if field_type == 'boolean':
2299             qualified_field = "coalesce(%s,false)" % qualified_field
2300         return {
2301             'field': split[0],
2302             'groupby': gb,
2303             'type': field_type, 
2304             'display_format': display_formats[gb_function or 'month'] if temporal else None,
2305             'interval': time_intervals[gb_function or 'month'] if temporal else None,                
2306             'tz_convert': tz_convert,
2307             'qualified_field': qualified_field
2308         }
2309
2310     def _read_group_prepare_data(self, key, value, groupby_dict, context):
2311         """
2312             Helper method to sanitize the data received by read_group. The None
2313             values are converted to False, and the date/datetime are formatted,
2314             and corrected according to the timezones.
2315         """
2316         value = False if value is None else value
2317         gb = groupby_dict.get(key)
2318         if gb and gb['type'] in ('date', 'datetime') and value:
2319             if isinstance(value, basestring):
2320                 dt_format = DEFAULT_SERVER_DATETIME_FORMAT if gb['type'] == 'datetime' else DEFAULT_SERVER_DATE_FORMAT
2321                 value = datetime.datetime.strptime(value, dt_format)
2322             if gb['tz_convert']:
2323                 value =  pytz.timezone(context['tz']).localize(value)
2324         return value
2325
2326     def _read_group_get_domain(self, groupby, value):
2327         """
2328             Helper method to construct the domain corresponding to a groupby and 
2329             a given value. This is mostly relevant for date/datetime.
2330         """
2331         if groupby['type'] in ('date', 'datetime') and value:
2332             dt_format = DEFAULT_SERVER_DATETIME_FORMAT if groupby['type'] == 'datetime' else DEFAULT_SERVER_DATE_FORMAT
2333             domain_dt_begin = value
2334             domain_dt_end = value + groupby['interval']
2335             if groupby['tz_convert']:
2336                 domain_dt_begin = domain_dt_begin.astimezone(pytz.utc)
2337                 domain_dt_end = domain_dt_end.astimezone(pytz.utc)
2338             return [(groupby['field'], '>=', domain_dt_begin.strftime(dt_format)),
2339                    (groupby['field'], '<', domain_dt_end.strftime(dt_format))]
2340         if groupby['type'] == 'many2one' and value:
2341                 value = value[0]
2342         return [(groupby['field'], '=', value)]
2343
2344     def _read_group_format_result(self, data, annotated_groupbys, groupby, groupby_dict, domain, context):
2345         """
2346             Helper method to format the data contained in the dictianary data by 
2347             adding the domain corresponding to its values, the groupbys in the 
2348             context and by properly formatting the date/datetime values. 
2349         """
2350         domain_group = [dom for gb in annotated_groupbys for dom in self._read_group_get_domain(gb, data[gb['groupby']])]
2351         for k,v in data.iteritems():
2352             gb = groupby_dict.get(k)
2353             if gb and gb['type'] in ('date', 'datetime') and v:
2354                 data[k] = babel.dates.format_date(v, format=gb['display_format'], locale=context.get('lang', 'en_US'))
2355
2356         data['__domain'] = domain_group + domain 
2357         if len(groupby) - len(annotated_groupbys) >= 1:
2358             data['__context'] = { 'group_by': groupby[len(annotated_groupbys):]}
2359         del data['id']
2360         return data
2361
2362     def read_group(self, cr, uid, domain, fields, groupby, offset=0, limit=None, context=None, orderby=False, lazy=True):
2363         """
2364         Get the list of records in list view grouped by the given ``groupby`` fields
2365
2366         :param cr: database cursor
2367         :param uid: current user id
2368         :param domain: list specifying search criteria [['field_name', 'operator', 'value'], ...]
2369         :param list fields: list of fields present in the list view specified on the object
2370         :param list groupby: list of groupby descriptions by which the records will be grouped.  
2371                 A groupby description is either a field (then it will be grouped by that field)
2372                 or a string 'field:groupby_function'.  Right now, the only functions supported
2373                 are 'day', 'week', 'month', 'quarter' or 'year', and they only make sense for 
2374                 date/datetime fields.
2375         :param int offset: optional number of records to skip
2376         :param int limit: optional max number of records to return
2377         :param dict context: context arguments, like lang, time zone. 
2378         :param list orderby: optional ``order by`` specification, for
2379                              overriding the natural sort ordering of the
2380                              groups, see also :py:meth:`~osv.osv.osv.search`
2381                              (supported only for many2one fields currently)
2382         :param bool lazy: if true, the results are only grouped by the first groupby and the 
2383                 remaining groupbys are put in the __context key.  If false, all the groupbys are
2384                 done in one call.
2385         :return: list of dictionaries(one dictionary for each record) containing:
2386
2387                     * the values of fields grouped by the fields in ``groupby`` argument
2388                     * __domain: list of tuples specifying the search criteria
2389                     * __context: dictionary with argument like ``groupby``
2390         :rtype: [{'field_name_1': value, ...]
2391         :raise AccessError: * if user has no read rights on the requested object
2392                             * if user tries to bypass access rules for read on the requested object
2393         """
2394         if context is None:
2395             context = {}
2396         self.check_access_rights(cr, uid, 'read')
2397         query = self._where_calc(cr, uid, domain, context=context) 
2398         fields = fields or self._columns.keys()
2399
2400         groupby = [groupby] if isinstance(groupby, basestring) else groupby
2401         groupby_list = groupby[:1] if lazy else groupby
2402         annotated_groupbys = [self._read_group_process_groupby(gb, query, context) 
2403                                     for gb in groupby_list]
2404         groupby_fields = [g['field'] for g in annotated_groupbys]
2405         order = orderby or ','.join([g for g in groupby_list])
2406         groupby_dict = {gb['groupby']: gb for gb in annotated_groupbys}
2407
2408         self._apply_ir_rules(cr, uid, query, 'read', context=context)
2409         for gb in groupby_fields:
2410             assert gb in fields, "Fields in 'groupby' must appear in the list of fields to read (perhaps it's missing in the list view?)"
2411             groupby_def = self._columns.get(gb) or (self._inherit_fields.get(gb) and self._inherit_fields.get(gb)[2])
2412             assert groupby_def and groupby_def._classic_write, "Fields in 'groupby' must be regular database-persisted fields (no function or related fields), or function fields with store=True"
2413             if not (gb in self._all_columns):
2414                 # Don't allow arbitrary values, as this would be a SQL injection vector!
2415                 raise except_orm(_('Invalid group_by'),
2416                                  _('Invalid group_by specification: "%s".\nA group_by specification must be a list of valid fields.')%(gb,))
2417
2418         aggregated_fields = [
2419             f for f in fields
2420             if f not in ('id', 'sequence')
2421             if f not in groupby_fields
2422             if self._all_columns[f].column._type in ('integer', 'float')
2423             if getattr(self._all_columns[f].column, '_classic_write')]
2424
2425         field_formatter = lambda f: (self._all_columns[f].column.group_operator or 'sum', self._inherits_join_calc(f, query), f)
2426         select_terms = ["%s(%s) AS %s" % field_formatter(f) for f in aggregated_fields]
2427
2428         for gb in annotated_groupbys:
2429             select_terms.append('%s as "%s" ' % (gb['qualified_field'], gb['groupby']))
2430
2431         groupby_terms, orderby_terms = self._read_group_prepare(order, aggregated_fields, annotated_groupbys, query)
2432         from_clause, where_clause, where_clause_params = query.get_sql()
2433         if lazy and (len(groupby_fields) >= 2 or not context.get('group_by_no_leaf')):
2434             count_field = groupby_fields[0] if len(groupby_fields) >= 1 else '_'
2435         else:
2436             count_field = '_'
2437         count_field += '_count'
2438
2439         prefix_terms = lambda prefix, terms: (prefix + " " + ",".join(terms)) if terms else ''
2440         prefix_term = lambda prefix, term: ('%s %s' % (prefix, term)) if term else ''
2441
2442         query = """
2443             SELECT min(%(table)s.id) AS id, count(%(table)s.id) AS %(count_field)s %(extra_fields)s
2444             FROM %(from)s
2445             %(where)s
2446             %(groupby)s
2447             %(orderby)s
2448             %(limit)s
2449             %(offset)s
2450         """ % {
2451             'table': self._table,
2452             'count_field': count_field,
2453             'extra_fields': prefix_terms(',', select_terms),
2454             'from': from_clause,
2455             'where': prefix_term('WHERE', where_clause),
2456             'groupby': prefix_terms('GROUP BY', groupby_terms),
2457             'orderby': prefix_terms('ORDER BY', orderby_terms),
2458             'limit': prefix_term('LIMIT', int(limit) if limit else None),
2459             'offset': prefix_term('OFFSET', int(offset) if limit else None),
2460         }
2461         cr.execute(query, where_clause_params)
2462         fetched_data = cr.dictfetchall()
2463
2464         if not groupby_fields:
2465             return fetched_data
2466
2467         many2onefields = [gb['field'] for gb in annotated_groupbys if gb['type'] == 'many2one']
2468         if many2onefields:
2469             data_ids = [r['id'] for r in fetched_data]
2470             many2onefields = list(set(many2onefields))
2471             data_dict = {d['id']: d for d in self.read(cr, uid, data_ids, many2onefields, context=context)} 
2472             for d in fetched_data:
2473                 d.update(data_dict[d['id']])
2474
2475         data = map(lambda r: {k: self._read_group_prepare_data(k,v, groupby_dict, context) for k,v in r.iteritems()}, fetched_data)
2476         result = [self._read_group_format_result(d, annotated_groupbys, groupby, groupby_dict, domain, context) for d in data]
2477         if lazy and groupby_fields[0] in self._group_by_full:
2478             # Right now, read_group only fill results in lazy mode (by default).
2479             # If you need to have the empty groups in 'eager' mode, then the
2480             # method _read_group_fill_results need to be completely reimplemented
2481             # in a sane way 
2482             result = self._read_group_fill_results(cr, uid, domain, groupby_fields[0], groupby[len(annotated_groupbys):],
2483                                                        aggregated_fields, count_field, result, read_group_order=order,
2484                                                        context=context)
2485         return result
2486
2487     def _inherits_join_add(self, current_model, parent_model_name, query):
2488         """
2489         Add missing table SELECT and JOIN clause to ``query`` for reaching the parent table (no duplicates)
2490         :param current_model: current model object
2491         :param parent_model_name: name of the parent model for which the clauses should be added
2492         :param query: query object on which the JOIN should be added
2493         """
2494         inherits_field = current_model._inherits[parent_model_name]
2495         parent_model = self.pool[parent_model_name]
2496         parent_alias, parent_alias_statement = query.add_join((current_model._table, parent_model._table, inherits_field, 'id', inherits_field), implicit=True)
2497         return parent_alias
2498
2499     def _inherits_join_calc(self, field, query):
2500         """
2501         Adds missing table select and join clause(s) to ``query`` for reaching
2502         the field coming from an '_inherits' parent table (no duplicates).
2503
2504         :param field: name of inherited field to reach
2505         :param query: query object on which the JOIN should be added
2506         :return: qualified name of field, to be used in SELECT clause
2507         """
2508         current_table = self
2509         parent_alias = '"%s"' % current_table._table
2510         while field in current_table._inherit_fields and not field in current_table._columns:
2511             parent_model_name = current_table._inherit_fields[field][0]
2512             parent_table = self.pool[parent_model_name]
2513             parent_alias = self._inherits_join_add(current_table, parent_model_name, query)
2514             current_table = parent_table
2515         return '%s."%s"' % (parent_alias, field)
2516
2517     def _parent_store_compute(self, cr):
2518         if not self._parent_store:
2519             return
2520         _logger.info('Computing parent left and right for table %s...', self._table)
2521         def browse_rec(root, pos=0):
2522             # TODO: set order
2523             where = self._parent_name+'='+str(root)
2524             if not root:
2525                 where = self._parent_name+' IS NULL'
2526             if self._parent_order:
2527                 where += ' order by '+self._parent_order
2528             cr.execute('SELECT id FROM '+self._table+' WHERE '+where)
2529             pos2 = pos + 1
2530             for id in cr.fetchall():
2531                 pos2 = browse_rec(id[0], pos2)
2532             cr.execute('update '+self._table+' set parent_left=%s, parent_right=%s where id=%s', (pos, pos2, root))
2533             return pos2 + 1
2534         query = 'SELECT id FROM '+self._table+' WHERE '+self._parent_name+' IS NULL'
2535         if self._parent_order:
2536             query += ' order by ' + self._parent_order
2537         pos = 0
2538         cr.execute(query)
2539         for (root,) in cr.fetchall():
2540             pos = browse_rec(root, pos)
2541         return True
2542
2543     def _update_store(self, cr, f, k):
2544         _logger.info("storing computed values of fields.function '%s'", k)
2545         ss = self._columns[k]._symbol_set
2546         update_query = 'UPDATE "%s" SET "%s"=%s WHERE id=%%s' % (self._table, k, ss[0])
2547         cr.execute('select id from '+self._table)
2548         ids_lst = map(lambda x: x[0], cr.fetchall())
2549         while ids_lst:
2550             iids = ids_lst[:AUTOINIT_RECALCULATE_STORED_FIELDS]
2551             ids_lst = ids_lst[AUTOINIT_RECALCULATE_STORED_FIELDS:]
2552             res = f.get(cr, self, iids, k, SUPERUSER_ID, {})
2553             for key, val in res.items():
2554                 if f._multi:
2555                     val = val[k]
2556                 # if val is a many2one, just write the ID
2557                 if type(val) == tuple:
2558                     val = val[0]
2559                 if val is not False:
2560                     cr.execute(update_query, (ss[1](val), key))
2561
2562     def _check_selection_field_value(self, cr, uid, field, value, context=None):
2563         """Raise except_orm if value is not among the valid values for the selection field"""
2564         if self._columns[field]._type == 'reference':
2565             val_model, val_id_str = value.split(',', 1)
2566             val_id = False
2567             try:
2568                 val_id = long(val_id_str)
2569             except ValueError:
2570                 pass
2571             if not val_id:
2572                 raise except_orm(_('ValidateError'),
2573                                  _('Invalid value for reference field "%s.%s" (last part must be a non-zero integer): "%s"') % (self._table, field, value))
2574             val = val_model
2575         else:
2576             val = value
2577         if isinstance(self._columns[field].selection, (tuple, list)):
2578             if val in dict(self._columns[field].selection):
2579                 return
2580         elif val in dict(self._columns[field].selection(self, cr, uid, context=context)):
2581             return
2582         raise except_orm(_('ValidateError'),
2583                          _('The value "%s" for the field "%s.%s" is not in the selection') % (value, self._table, field))
2584
2585     def _check_removed_columns(self, cr, log=False):
2586         # iterate on the database columns to drop the NOT NULL constraints
2587         # of fields which were required but have been removed (or will be added by another module)
2588         columns = [c for c in self._columns if not (isinstance(self._columns[c], fields.function) and not self._columns[c].store)]
2589         columns += MAGIC_COLUMNS
2590         cr.execute("SELECT a.attname, a.attnotnull"
2591                    "  FROM pg_class c, pg_attribute a"
2592                    " WHERE c.relname=%s"
2593                    "   AND c.oid=a.attrelid"
2594                    "   AND a.attisdropped=%s"
2595                    "   AND pg_catalog.format_type(a.atttypid, a.atttypmod) NOT IN ('cid', 'tid', 'oid', 'xid')"
2596                    "   AND a.attname NOT IN %s", (self._table, False, tuple(columns))),
2597
2598         for column in cr.dictfetchall():
2599             if log:
2600                 _logger.debug("column %s is in the table %s but not in the corresponding object %s",
2601                               column['attname'], self._table, self._name)
2602             if column['attnotnull']:
2603                 cr.execute('ALTER TABLE "%s" ALTER COLUMN "%s" DROP NOT NULL' % (self._table, column['attname']))
2604                 _schema.debug("Table '%s': column '%s': dropped NOT NULL constraint",
2605                               self._table, column['attname'])
2606
2607     def _save_constraint(self, cr, constraint_name, type):
2608         """
2609         Record the creation of a constraint for this model, to make it possible
2610         to delete it later when the module is uninstalled. Type can be either
2611         'f' or 'u' depending on the constraint being a foreign key or not.
2612         """
2613         if not self._module:
2614             # no need to save constraints for custom models as they're not part
2615             # of any module
2616             return
2617         assert type in ('f', 'u')
2618         cr.execute("""
2619             SELECT 1 FROM ir_model_constraint, ir_module_module
2620             WHERE ir_model_constraint.module=ir_module_module.id
2621                 AND ir_model_constraint.name=%s
2622                 AND ir_module_module.name=%s
2623             """, (constraint_name, self._module))
2624         if not cr.rowcount:
2625             cr.execute("""
2626                 INSERT INTO ir_model_constraint
2627                     (name, date_init, date_update, module, model, type)
2628                 VALUES (%s, now() AT TIME ZONE 'UTC', now() AT TIME ZONE 'UTC',
2629                     (SELECT id FROM ir_module_module WHERE name=%s),
2630                     (SELECT id FROM ir_model WHERE model=%s), %s)""",
2631                     (constraint_name, self._module, self._name, type))
2632
2633     def _save_relation_table(self, cr, relation_table):
2634         """
2635         Record the creation of a many2many for this model, to make it possible
2636         to delete it later when the module is uninstalled.
2637         """
2638         cr.execute("""
2639             SELECT 1 FROM ir_model_relation, ir_module_module
2640             WHERE ir_model_relation.module=ir_module_module.id
2641                 AND ir_model_relation.name=%s
2642                 AND ir_module_module.name=%s
2643             """, (relation_table, self._module))
2644         if not cr.rowcount:
2645             cr.execute("""INSERT INTO ir_model_relation (name, date_init, date_update, module, model)
2646                                  VALUES (%s, now() AT TIME ZONE 'UTC', now() AT TIME ZONE 'UTC',
2647                     (SELECT id FROM ir_module_module WHERE name=%s),
2648                     (SELECT id FROM ir_model WHERE model=%s))""",
2649                        (relation_table, self._module, self._name))
2650
2651     # checked version: for direct m2o starting from `self`
2652     def _m2o_add_foreign_key_checked(self, source_field, dest_model, ondelete):
2653         assert self.is_transient() or not dest_model.is_transient(), \
2654             'Many2One relationships from non-transient Model to TransientModel are forbidden'
2655         if self.is_transient() and not dest_model.is_transient():
2656             # TransientModel relationships to regular Models are annoying
2657             # usually because they could block deletion due to the FKs.
2658             # So unless stated otherwise we default them to ondelete=cascade.
2659             ondelete = ondelete or 'cascade'
2660         fk_def = (self._table, source_field, dest_model._table, ondelete or 'set null')
2661         self._foreign_keys.add(fk_def)
2662         _schema.debug("Table '%s': added foreign key '%s' with definition=REFERENCES \"%s\" ON DELETE %s", *fk_def)
2663
2664     # unchecked version: for custom cases, such as m2m relationships
2665     def _m2o_add_foreign_key_unchecked(self, source_table, source_field, dest_model, ondelete):
2666         fk_def = (source_table, source_field, dest_model._table, ondelete or 'set null')
2667         self._foreign_keys.add(fk_def)
2668         _schema.debug("Table '%s': added foreign key '%s' with definition=REFERENCES \"%s\" ON DELETE %s", *fk_def)
2669
2670     def _drop_constraint(self, cr, source_table, constraint_name):
2671         cr.execute("ALTER TABLE %s DROP CONSTRAINT %s" % (source_table,constraint_name))
2672
2673     def _m2o_fix_foreign_key(self, cr, source_table, source_field, dest_model, ondelete):
2674         # Find FK constraint(s) currently established for the m2o field,
2675         # and see whether they are stale or not
2676         cr.execute("""SELECT confdeltype as ondelete_rule, conname as constraint_name,
2677                              cl2.relname as foreign_table
2678                       FROM pg_constraint as con, pg_class as cl1, pg_class as cl2,
2679                            pg_attribute as att1, pg_attribute as att2
2680                       WHERE con.conrelid = cl1.oid
2681                         AND cl1.relname = %s
2682                         AND con.confrelid = cl2.oid
2683                         AND array_lower(con.conkey, 1) = 1
2684                         AND con.conkey[1] = att1.attnum
2685                         AND att1.attrelid = cl1.oid
2686                         AND att1.attname = %s
2687                         AND array_lower(con.confkey, 1) = 1
2688                         AND con.confkey[1] = att2.attnum
2689                         AND att2.attrelid = cl2.oid
2690                         AND att2.attname = %s
2691                         AND con.contype = 'f'""", (source_table, source_field, 'id'))
2692         constraints = cr.dictfetchall()
2693         if constraints:
2694             if len(constraints) == 1:
2695                 # Is it the right constraint?
2696                 cons, = constraints
2697                 if self.is_transient() and not dest_model.is_transient():
2698                     # transient foreign keys are added as cascade by default
2699                     ondelete = ondelete or 'cascade'
2700                 if cons['ondelete_rule'] != POSTGRES_CONFDELTYPES.get((ondelete or 'set null').upper(), 'a')\
2701                     or cons['foreign_table'] != dest_model._table:
2702                     # Wrong FK: drop it and recreate
2703                     _schema.debug("Table '%s': dropping obsolete FK constraint: '%s'",
2704                                   source_table, cons['constraint_name'])
2705                     self._drop_constraint(cr, source_table, cons['constraint_name'])
2706                 else:
2707                     # it's all good, nothing to do!
2708                     return
2709             else:
2710                 # Multiple FKs found for the same field, drop them all, and re-create
2711                 for cons in constraints:
2712                     _schema.debug("Table '%s': dropping duplicate FK constraints: '%s'",
2713                                   source_table, cons['constraint_name'])
2714                     self._drop_constraint(cr, source_table, cons['constraint_name'])
2715
2716         # (re-)create the FK
2717         self._m2o_add_foreign_key_checked(source_field, dest_model, ondelete)
2718
2719
2720
2721     def _auto_init(self, cr, context=None):
2722         """
2723
2724         Call _field_create and, unless _auto is False:
2725
2726         - create the corresponding table in database for the model,
2727         - possibly add the parent columns in database,
2728         - possibly add the columns 'create_uid', 'create_date', 'write_uid',
2729           'write_date' in database if _log_access is True (the default),
2730         - report on database columns no more existing in _columns,
2731         - remove no more existing not null constraints,
2732         - alter existing database columns to match _columns,
2733         - create database tables to match _columns,
2734         - add database indices to match _columns,
2735         - save in self._foreign_keys a list a foreign keys to create (see
2736           _auto_end).
2737
2738         """
2739         self._foreign_keys = set()
2740         raise_on_invalid_object_name(self._name)
2741         if context is None:
2742             context = {}
2743         store_compute = False
2744         todo_end = []
2745         update_custom_fields = context.get('update_custom_fields', False)
2746         self._field_create(cr, context=context)
2747         create = not self._table_exist(cr)
2748         if self._auto:
2749
2750             if create:
2751                 self._create_table(cr)
2752
2753             cr.commit()
2754             if self._parent_store:
2755                 if not self._parent_columns_exist(cr):
2756                     self._create_parent_columns(cr)
2757                     store_compute = True
2758
2759             # Create the create_uid, create_date, write_uid, write_date, columns if desired.
2760             if self._log_access:
2761                 self._add_log_columns(cr)
2762
2763             self._check_removed_columns(cr, log=False)
2764
2765             # iterate on the "object columns"
2766             column_data = self._select_column_data(cr)
2767
2768             for k, f in self._columns.iteritems():
2769                 if k in MAGIC_COLUMNS:
2770                     continue
2771                 # Don't update custom (also called manual) fields
2772                 if f.manual and not update_custom_fields:
2773                     continue
2774
2775                 if isinstance(f, fields.one2many):
2776                     self._o2m_raise_on_missing_reference(cr, f)
2777
2778                 elif isinstance(f, fields.many2many):
2779                     self._m2m_raise_or_create_relation(cr, f)
2780
2781                 else:
2782                     res = column_data.get(k)
2783
2784                     # The field is not found as-is in database, try if it
2785                     # exists with an old name.
2786                     if not res and hasattr(f, 'oldname'):
2787                         res = column_data.get(f.oldname)
2788                         if res:
2789                             cr.execute('ALTER TABLE "%s" RENAME "%s" TO "%s"' % (self._table, f.oldname, k))
2790                             res['attname'] = k
2791                             column_data[k] = res
2792                             _schema.debug("Table '%s': renamed column '%s' to '%s'",
2793                                 self._table, f.oldname, k)
2794
2795                     # The field already exists in database. Possibly
2796                     # change its type, rename it, drop it or change its
2797                     # constraints.
2798                     if res:
2799                         f_pg_type = res['typname']
2800                         f_pg_size = res['size']
2801                         f_pg_notnull = res['attnotnull']
2802                         if isinstance(f, fields.function) and not f.store and\
2803                                 not getattr(f, 'nodrop', False):
2804                             _logger.info('column %s (%s) converted to a function, removed from table %s',
2805                                          k, f.string, self._table)
2806                             cr.execute('ALTER TABLE "%s" DROP COLUMN "%s" CASCADE' % (self._table, k))
2807                             cr.commit()
2808                             _schema.debug("Table '%s': dropped column '%s' with cascade",
2809                                 self._table, k)
2810                             f_obj_type = None
2811                         else:
2812                             f_obj_type = get_pg_type(f) and get_pg_type(f)[0]
2813
2814                         if f_obj_type:
2815                             ok = False
2816                             casts = [
2817                                 ('text', 'char', pg_varchar(f.size), '::%s' % pg_varchar(f.size)),
2818                                 ('varchar', 'text', 'TEXT', ''),
2819                                 ('int4', 'float', get_pg_type(f)[1], '::'+get_pg_type(f)[1]),
2820                                 ('date', 'datetime', 'TIMESTAMP', '::TIMESTAMP'),
2821                                 ('timestamp', 'date', 'date', '::date'),
2822                                 ('numeric', 'float', get_pg_type(f)[1], '::'+get_pg_type(f)[1]),
2823                                 ('float8', 'float', get_pg_type(f)[1], '::'+get_pg_type(f)[1]),
2824                             ]
2825                             if f_pg_type == 'varchar' and f._type == 'char' and f_pg_size and (f.size is None or f_pg_size < f.size):
2826                                 try:
2827                                     with cr.savepoint():
2828                                         cr.execute('ALTER TABLE "%s" ALTER COLUMN "%s" TYPE %s' % (self._table, k, pg_varchar(f.size)))
2829                                 except psycopg2.NotSupportedError:
2830                                     # In place alter table cannot be done because a view is depending of this field.
2831                                     # Do a manual copy. This will drop the view (that will be recreated later)
2832                                     cr.execute('ALTER TABLE "%s" RENAME COLUMN "%s" TO temp_change_size' % (self._table, k))
2833                                     cr.execute('ALTER TABLE "%s" ADD COLUMN "%s" %s' % (self._table, k, pg_varchar(f.size)))
2834                                     cr.execute('UPDATE "%s" SET "%s"=temp_change_size::%s' % (self._table, k, pg_varchar(f.size)))
2835                                     cr.execute('ALTER TABLE "%s" DROP COLUMN temp_change_size CASCADE' % (self._table,))
2836                                 cr.commit()
2837                                 _schema.debug("Table '%s': column '%s' (type varchar) changed size from %s to %s",
2838                                     self._table, k, f_pg_size or 'unlimited', f.size or 'unlimited')
2839                             for c in casts:
2840                                 if (f_pg_type==c[0]) and (f._type==c[1]):
2841                                     if f_pg_type != f_obj_type:
2842                                         ok = True
2843                                         cr.execute('ALTER TABLE "%s" RENAME COLUMN "%s" TO __temp_type_cast' % (self._table, k))
2844                                         cr.execute('ALTER TABLE "%s" ADD COLUMN "%s" %s' % (self._table, k, c[2]))
2845                                         cr.execute(('UPDATE "%s" SET "%s"= __temp_type_cast'+c[3]) % (self._table, k))
2846                                         cr.execute('ALTER TABLE "%s" DROP COLUMN  __temp_type_cast CASCADE' % (self._table,))
2847                                         cr.commit()
2848                                         _schema.debug("Table '%s': column '%s' changed type from %s to %s",
2849                                             self._table, k, c[0], c[1])
2850                                     break
2851
2852                             if f_pg_type != f_obj_type:
2853                                 if not ok:
2854                                     i = 0
2855                                     while True:
2856                                         newname = k + '_moved' + str(i)
2857                                         cr.execute("SELECT count(1) FROM pg_class c,pg_attribute a " \
2858                                             "WHERE c.relname=%s " \
2859                                             "AND a.attname=%s " \
2860                                             "AND c.oid=a.attrelid ", (self._table, newname))
2861                                         if not cr.fetchone()[0]:
2862                                             break
2863                                         i += 1
2864                                     if f_pg_notnull:
2865                                         cr.execute('ALTER TABLE "%s" ALTER COLUMN "%s" DROP NOT NULL' % (self._table, k))
2866                                     cr.execute('ALTER TABLE "%s" RENAME COLUMN "%s" TO "%s"' % (self._table, k, newname))
2867                                     cr.execute('ALTER TABLE "%s" ADD COLUMN "%s" %s' % (self._table, k, get_pg_type(f)[1]))
2868                                     cr.execute("COMMENT ON COLUMN %s.\"%s\" IS %%s" % (self._table, k), (f.string,))
2869                                     _schema.debug("Table '%s': column '%s' has changed type (DB=%s, def=%s), data moved to column %s !",
2870                                         self._table, k, f_pg_type, f._type, newname)
2871
2872                             # if the field is required and hasn't got a NOT NULL constraint
2873                             if f.required and f_pg_notnull == 0:
2874                                 # set the field to the default value if any
2875                                 if k in self._defaults:
2876                                     if callable(self._defaults[k]):
2877                                         default = self._defaults[k](self, cr, SUPERUSER_ID, context)
2878                                     else:
2879                                         default = self._defaults[k]
2880
2881                                     if default is not None:
2882                                         ss = self._columns[k]._symbol_set
2883                                         query = 'UPDATE "%s" SET "%s"=%s WHERE "%s" is NULL' % (self._table, k, ss[0], k)
2884                                         cr.execute(query, (ss[1](default),))
2885                                 # add the NOT NULL constraint
2886                                 cr.commit()
2887                                 try:
2888                                     cr.execute('ALTER TABLE "%s" ALTER COLUMN "%s" SET NOT NULL' % (self._table, k), log_exceptions=False)
2889                                     cr.commit()
2890                                     _schema.debug("Table '%s': column '%s': added NOT NULL constraint",
2891                                         self._table, k)
2892                                 except Exception:
2893                                     msg = "Table '%s': unable to set a NOT NULL constraint on column '%s' !\n"\
2894                                         "If you want to have it, you should update the records and execute manually:\n"\
2895                                         "ALTER TABLE %s ALTER COLUMN %s SET NOT NULL"
2896                                     _schema.warning(msg, self._table, k, self._table, k)
2897                                 cr.commit()
2898                             elif not f.required and f_pg_notnull == 1:
2899                                 cr.execute('ALTER TABLE "%s" ALTER COLUMN "%s" DROP NOT NULL' % (self._table, k))
2900                                 cr.commit()
2901                                 _schema.debug("Table '%s': column '%s': dropped NOT NULL constraint",
2902                                     self._table, k)
2903                             # Verify index
2904                             indexname = '%s_%s_index' % (self._table, k)
2905                             cr.execute("SELECT indexname FROM pg_indexes WHERE indexname = %s and tablename = %s", (indexname, self._table))
2906                             res2 = cr.dictfetchall()
2907                             if not res2 and f.select:
2908                                 cr.execute('CREATE INDEX "%s_%s_index" ON "%s" ("%s")' % (self._table, k, self._table, k))
2909                                 cr.commit()
2910                                 if f._type == 'text':
2911                                     # FIXME: for fields.text columns we should try creating GIN indexes instead (seems most suitable for an ERP context)
2912                                     msg = "Table '%s': Adding (b-tree) index for %s column '%s'."\
2913                                         "This is probably useless (does not work for fulltext search) and prevents INSERTs of long texts"\
2914                                         " because there is a length limit for indexable btree values!\n"\
2915                                         "Use a search view instead if you simply want to make the field searchable."
2916                                     _schema.warning(msg, self._table, f._type, k)
2917                             if res2 and not f.select:
2918                                 cr.execute('DROP INDEX "%s_%s_index"' % (self._table, k))
2919                                 cr.commit()
2920                                 msg = "Table '%s': dropping index for column '%s' of type '%s' as it is not required anymore"
2921                                 _schema.debug(msg, self._table, k, f._type)
2922
2923                             if isinstance(f, fields.many2one) or (isinstance(f, fields.function) and f._type == 'many2one' and f.store):
2924                                 dest_model = self.pool[f._obj]
2925                                 if dest_model._table != 'ir_actions':
2926                                     self._m2o_fix_foreign_key(cr, self._table, k, dest_model, f.ondelete)
2927
2928                     # The field doesn't exist in database. Create it if necessary.
2929                     else:
2930                         if not isinstance(f, fields.function) or f.store:
2931                             # add the missing field
2932                             cr.execute('ALTER TABLE "%s" ADD COLUMN "%s" %s' % (self._table, k, get_pg_type(f)[1]))
2933                             cr.execute("COMMENT ON COLUMN %s.\"%s\" IS %%s" % (self._table, k), (f.string,))
2934                             _schema.debug("Table '%s': added column '%s' with definition=%s",
2935                                 self._table, k, get_pg_type(f)[1])
2936
2937                             # initialize it
2938                             if not create and k in self._defaults:
2939                                 if callable(self._defaults[k]):
2940                                     default = self._defaults[k](self, cr, SUPERUSER_ID, context)
2941                                 else:
2942                                     default = self._defaults[k]
2943
2944                                 ss = self._columns[k]._symbol_set
2945                                 query = 'UPDATE "%s" SET "%s"=%s' % (self._table, k, ss[0])
2946                                 cr.execute(query, (ss[1](default),))
2947                                 cr.commit()
2948                                 _logger.debug("Table '%s': setting default value of new column %s", self._table, k)
2949
2950                             # remember the functions to call for the stored fields
2951                             if isinstance(f, fields.function):
2952                                 order = 10
2953                                 if f.store is not True: # i.e. if f.store is a dict
2954                                     order = f.store[f.store.keys()[0]][2]
2955                                 todo_end.append((order, self._update_store, (f, k)))
2956
2957                             # and add constraints if needed
2958                             if isinstance(f, fields.many2one) or (isinstance(f, fields.function) and f._type == 'many2one' and f.store):
2959                                 if f._obj not in self.pool:
2960                                     raise except_orm('Programming Error', 'There is no reference available for %s' % (f._obj,))
2961                                 dest_model = self.pool[f._obj]
2962                                 ref = dest_model._table
2963                                 # ir_actions is inherited so foreign key doesn't work on it
2964                                 if ref != 'ir_actions':
2965                                     self._m2o_add_foreign_key_checked(k, dest_model, f.ondelete)
2966                             if f.select:
2967                                 cr.execute('CREATE INDEX "%s_%s_index" ON "%s" ("%s")' % (self._table, k, self._table, k))
2968                             if f.required:
2969                                 try:
2970                                     cr.commit()
2971                                     cr.execute('ALTER TABLE "%s" ALTER COLUMN "%s" SET NOT NULL' % (self._table, k), log_exceptions=False)
2972                                     _schema.debug("Table '%s': column '%s': added a NOT NULL constraint",
2973                                         self._table, k)
2974                                 except Exception:
2975                                     msg = "WARNING: unable to set column %s of table %s not null !\n"\
2976                                         "Try to re-run: openerp-server --update=module\n"\
2977                                         "If it doesn't work, update records and execute manually:\n"\
2978                                         "ALTER TABLE %s ALTER COLUMN %s SET NOT NULL"
2979                                     _logger.warning(msg, k, self._table, self._table, k)
2980                             cr.commit()
2981
2982         else:
2983             cr.execute("SELECT relname FROM pg_class WHERE relkind IN ('r','v') AND relname=%s", (self._table,))
2984             create = not bool(cr.fetchone())
2985
2986         cr.commit()     # start a new transaction
2987
2988         if self._auto:
2989             self._add_sql_constraints(cr)
2990
2991         if create:
2992             self._execute_sql(cr)
2993
2994         if store_compute:
2995             self._parent_store_compute(cr)
2996             cr.commit()
2997
2998         return todo_end
2999
3000     def _auto_end(self, cr, context=None):
3001         """ Create the foreign keys recorded by _auto_init. """
3002         for t, k, r, d in self._foreign_keys:
3003             cr.execute('ALTER TABLE "%s" ADD FOREIGN KEY ("%s") REFERENCES "%s" ON DELETE %s' % (t, k, r, d))
3004             self._save_constraint(cr, "%s_%s_fkey" % (t, k), 'f')
3005         cr.commit()
3006         del self._foreign_keys
3007
3008
3009     def _table_exist(self, cr):
3010         cr.execute("SELECT relname FROM pg_class WHERE relkind IN ('r','v') AND relname=%s", (self._table,))
3011         return cr.rowcount
3012
3013
3014     def _create_table(self, cr):
3015         cr.execute('CREATE TABLE "%s" (id SERIAL NOT NULL, PRIMARY KEY(id))' % (self._table,))
3016         cr.execute(("COMMENT ON TABLE \"%s\" IS %%s" % self._table), (self._description,))
3017         _schema.debug("Table '%s': created", self._table)
3018
3019
3020     def _parent_columns_exist(self, cr):
3021         cr.execute("""SELECT c.relname
3022             FROM pg_class c, pg_attribute a
3023             WHERE c.relname=%s AND a.attname=%s AND c.oid=a.attrelid
3024             """, (self._table, 'parent_left'))
3025         return cr.rowcount
3026
3027
3028     def _create_parent_columns(self, cr):
3029         cr.execute('ALTER TABLE "%s" ADD COLUMN "parent_left" INTEGER' % (self._table,))
3030         cr.execute('ALTER TABLE "%s" ADD COLUMN "parent_right" INTEGER' % (self._table,))
3031         if 'parent_left' not in self._columns:
3032             _logger.error('create a column parent_left on object %s: fields.integer(\'Left Parent\', select=1)',
3033                           self._table)
3034             _schema.debug("Table '%s': added column '%s' with definition=%s",
3035                 self._table, 'parent_left', 'INTEGER')
3036         elif not self._columns['parent_left'].select:
3037             _logger.error('parent_left column on object %s must be indexed! Add select=1 to the field definition)',
3038                           self._table)
3039         if 'parent_right' not in self._columns:
3040             _logger.error('create a column parent_right on object %s: fields.integer(\'Right Parent\', select=1)',
3041                           self._table)
3042             _schema.debug("Table '%s': added column '%s' with definition=%s",
3043                 self._table, 'parent_right', 'INTEGER')
3044         elif not self._columns['parent_right'].select:
3045             _logger.error('parent_right column on object %s must be indexed! Add select=1 to the field definition)',
3046                           self._table)
3047         if self._columns[self._parent_name].ondelete not in ('cascade', 'restrict'):
3048             _logger.error("The column %s on object %s must be set as ondelete='cascade' or 'restrict'",
3049                           self._parent_name, self._name)
3050
3051         cr.commit()
3052
3053
3054     def _add_log_columns(self, cr):
3055         for field, field_def in LOG_ACCESS_COLUMNS.iteritems():
3056             cr.execute("""
3057                 SELECT c.relname
3058                   FROM pg_class c, pg_attribute a
3059                  WHERE c.relname=%s AND a.attname=%s AND c.oid=a.attrelid
3060                 """, (self._table, field))
3061             if not cr.rowcount:
3062                 cr.execute('ALTER TABLE "%s" ADD COLUMN "%s" %s' % (self._table, field, field_def))
3063                 cr.commit()
3064                 _schema.debug("Table '%s': added column '%s' with definition=%s",
3065                     self._table, field, field_def)
3066
3067
3068     def _select_column_data(self, cr):
3069         # attlen is the number of bytes necessary to represent the type when
3070         # the type has a fixed size. If the type has a varying size attlen is
3071         # -1 and atttypmod is the size limit + 4, or -1 if there is no limit.
3072         cr.execute("SELECT c.relname,a.attname,a.attlen,a.atttypmod,a.attnotnull,a.atthasdef,t.typname,CASE WHEN a.attlen=-1 THEN (CASE WHEN a.atttypmod=-1 THEN 0 ELSE a.atttypmod-4 END) ELSE a.attlen END as size " \
3073            "FROM pg_class c,pg_attribute a,pg_type t " \
3074            "WHERE c.relname=%s " \
3075            "AND c.oid=a.attrelid " \
3076            "AND a.atttypid=t.oid", (self._table,))
3077         return dict(map(lambda x: (x['attname'], x),cr.dictfetchall()))
3078
3079
3080     def _o2m_raise_on_missing_reference(self, cr, f):
3081         # TODO this check should be a method on fields.one2many.
3082         if f._obj in self.pool:
3083             other = self.pool[f._obj]
3084             # TODO the condition could use fields_get_keys().
3085             if f._fields_id not in other._columns.keys():
3086                 if f._fields_id not in other._inherit_fields.keys():
3087                     raise except_orm('Programming Error', "There is no reference field '%s' found for '%s'" % (f._fields_id, f._obj,))
3088
3089     def _m2m_raise_or_create_relation(self, cr, f):
3090         m2m_tbl, col1, col2 = f._sql_names(self)
3091         # do not create relations for custom fields as they do not belong to a module
3092         # they will be automatically removed when dropping the corresponding ir.model.field
3093         # table name for custom relation all starts with x_, see __init__
3094         if not m2m_tbl.startswith('x_'):
3095             self._save_relation_table(cr, m2m_tbl)
3096         cr.execute("SELECT relname FROM pg_class WHERE relkind IN ('r','v') AND relname=%s", (m2m_tbl,))
3097         if not cr.dictfetchall():
3098             if f._obj not in self.pool:
3099                 raise except_orm('Programming Error', 'Many2Many destination model does not exist: `%s`' % (f._obj,))
3100             dest_model = self.pool[f._obj]
3101             ref = dest_model._table
3102             cr.execute('CREATE TABLE "%s" ("%s" INTEGER NOT NULL, "%s" INTEGER NOT NULL, UNIQUE("%s","%s"))' % (m2m_tbl, col1, col2, col1, col2))
3103             # create foreign key references with ondelete=cascade, unless the targets are SQL views
3104             cr.execute("SELECT relkind FROM pg_class WHERE relkind IN ('v') AND relname=%s", (ref,))
3105             if not cr.fetchall():
3106                 self._m2o_add_foreign_key_unchecked(m2m_tbl, col2, dest_model, 'cascade')
3107             cr.execute("SELECT relkind FROM pg_class WHERE relkind IN ('v') AND relname=%s", (self._table,))
3108             if not cr.fetchall():
3109                 self._m2o_add_foreign_key_unchecked(m2m_tbl, col1, self, 'cascade')
3110
3111             cr.execute('CREATE INDEX "%s_%s_index" ON "%s" ("%s")' % (m2m_tbl, col1, m2m_tbl, col1))
3112             cr.execute('CREATE INDEX "%s_%s_index" ON "%s" ("%s")' % (m2m_tbl, col2, m2m_tbl, col2))
3113             cr.execute("COMMENT ON TABLE \"%s\" IS 'RELATION BETWEEN %s AND %s'" % (m2m_tbl, self._table, ref))
3114             cr.commit()
3115             _schema.debug("Create table '%s': m2m relation between '%s' and '%s'", m2m_tbl, self._table, ref)
3116
3117
3118     def _add_sql_constraints(self, cr):
3119         """
3120
3121         Modify this model's database table constraints so they match the one in
3122         _sql_constraints.
3123
3124         """
3125         def unify_cons_text(txt):
3126             return txt.lower().replace(', ',',').replace(' (','(')
3127
3128         for (key, con, _) in self._sql_constraints:
3129             conname = '%s_%s' % (self._table, key)
3130
3131             self._save_constraint(cr, conname, 'u')
3132             cr.execute("SELECT conname, pg_catalog.pg_get_constraintdef(oid, true) as condef FROM pg_constraint where conname=%s", (conname,))
3133             existing_constraints = cr.dictfetchall()
3134             sql_actions = {
3135                 'drop': {
3136                     'execute': False,
3137                     'query': 'ALTER TABLE "%s" DROP CONSTRAINT "%s"' % (self._table, conname, ),
3138                     'msg_ok': "Table '%s': dropped constraint '%s'. Reason: its definition changed from '%%s' to '%s'" % (
3139                         self._table, conname, con),
3140                     'msg_err': "Table '%s': unable to drop \'%s\' constraint !" % (self._table, con),
3141                     'order': 1,
3142                 },
3143                 'add': {
3144                     'execute': False,
3145                     'query': 'ALTER TABLE "%s" ADD CONSTRAINT "%s" %s' % (self._table, conname, con,),
3146                     'msg_ok': "Table '%s': added constraint '%s' with definition=%s" % (self._table, conname, con),
3147                     'msg_err': "Table '%s': unable to add \'%s\' constraint !\n If you want to have it, you should update the records and execute manually:\n%%s" % (
3148                         self._table, con),
3149                     'order': 2,
3150                 },
3151             }
3152
3153             if not existing_constraints:
3154                 # constraint does not exists:
3155                 sql_actions['add']['execute'] = True
3156                 sql_actions['add']['msg_err'] = sql_actions['add']['msg_err'] % (sql_actions['add']['query'], )
3157             elif unify_cons_text(con) not in [unify_cons_text(item['condef']) for item in existing_constraints]:
3158                 # constraint exists but its definition has changed:
3159                 sql_actions['drop']['execute'] = True
3160                 sql_actions['drop']['msg_ok'] = sql_actions['drop']['msg_ok'] % (existing_constraints[0]['condef'].lower(), )
3161                 sql_actions['add']['execute'] = True
3162                 sql_actions['add']['msg_err'] = sql_actions['add']['msg_err'] % (sql_actions['add']['query'], )
3163
3164             # we need to add the constraint:
3165             sql_actions = [item for item in sql_actions.values()]
3166             sql_actions.sort(key=lambda x: x['order'])
3167             for sql_action in [action for action in sql_actions if action['execute']]:
3168                 try:
3169                     cr.execute(sql_action['query'])
3170                     cr.commit()
3171                     _schema.debug(sql_action['msg_ok'])
3172                 except:
3173                     _schema.warning(sql_action['msg_err'])
3174                     cr.rollback()
3175
3176
3177     def _execute_sql(self, cr):
3178         """ Execute the SQL code from the _sql attribute (if any)."""
3179         if hasattr(self, "_sql"):
3180             for line in self._sql.split(';'):
3181                 line2 = line.replace('\n', '').strip()
3182                 if line2:
3183                     cr.execute(line2)
3184                     cr.commit()
3185
3186     #
3187     # Update objects that uses this one to update their _inherits fields
3188     #
3189
3190     def _inherits_reload_src(self):
3191         """ Recompute the _inherit_fields mapping on each _inherits'd child model."""
3192         for obj in self.pool.models.values():
3193             if self._name in obj._inherits:
3194                 obj._inherits_reload()
3195
3196
3197     def _inherits_reload(self):
3198         """ Recompute the _inherit_fields mapping.
3199
3200         This will also call itself on each inherits'd child model.
3201
3202         """
3203         res = {}
3204         for table in self._inherits:
3205             other = self.pool[table]
3206             for col in other._columns.keys():
3207                 res[col] = (table, self._inherits[table], other._columns[col], table)
3208             for col in other._inherit_fields.keys():
3209                 res[col] = (table, self._inherits[table], other._inherit_fields[col][2], other._inherit_fields[col][3])
3210         self._inherit_fields = res
3211         self._all_columns = self._get_column_infos()
3212         self._inherits_reload_src()
3213
3214
3215     def _get_column_infos(self):
3216         """Returns a dict mapping all fields names (direct fields and
3217            inherited field via _inherits) to a ``column_info`` struct
3218            giving detailed columns """
3219         result = {}
3220         for k, (parent, m2o, col, original_parent) in self._inherit_fields.iteritems():
3221             result[k] = fields.column_info(k, col, parent, m2o, original_parent)
3222         for k, col in self._columns.iteritems():
3223             result[k] = fields.column_info(k, col)
3224         return result
3225
3226
3227     def _inherits_check(self):
3228         for table, field_name in self._inherits.items():
3229             if field_name not in self._columns:
3230                 _logger.info('Missing many2one field definition for _inherits reference "%s" in "%s", using default one.', field_name, self._name)
3231                 self._columns[field_name] = fields.many2one(table, string="Automatically created field to link to parent %s" % table,
3232                                                              required=True, ondelete="cascade")
3233             elif not self._columns[field_name].required or self._columns[field_name].ondelete.lower() not in ("cascade", "restrict"):
3234                 _logger.warning('Field definition for _inherits reference "%s" in "%s" must be marked as "required" with ondelete="cascade" or "restrict", forcing it to required + cascade.', field_name, self._name)
3235                 self._columns[field_name].required = True
3236                 self._columns[field_name].ondelete = "cascade"
3237
3238
3239     def fields_get(self, cr, user, allfields=None, context=None, write_access=True):
3240         """ Return the definition of each field.
3241
3242         The returned value is a dictionary (indiced by field name) of
3243         dictionaries. The _inherits'd fields are included. The string, help,
3244         and selection (if present) attributes are translated.
3245
3246         :param cr: database cursor
3247         :param user: current user id
3248         :param allfields: list of fields
3249         :param context: context arguments, like lang, time zone
3250         :return: dictionary of field dictionaries, each one describing a field of the business object
3251         :raise AccessError: * if user has no create/write rights on the requested object
3252
3253         """
3254         if context is None:
3255             context = {}
3256
3257         write_access = self.check_access_rights(cr, user, 'write', raise_exception=False) \
3258             or self.check_access_rights(cr, user, 'create', raise_exception=False)
3259
3260         res = {}
3261
3262         translation_obj = self.pool.get('ir.translation')
3263         for parent in self._inherits:
3264             res.update(self.pool[parent].fields_get(cr, user, allfields, context))
3265
3266         for f, field in self._columns.iteritems():
3267             if (allfields and f not in allfields) or \
3268                 (field.groups and not self.user_has_groups(cr, user, groups=field.groups, context=context)):
3269                 continue
3270
3271             res[f] = fields.field_to_dict(self, cr, user, field, context=context)
3272
3273             if not write_access:
3274                 res[f]['readonly'] = True
3275                 res[f]['states'] = {}
3276
3277             if 'lang' in context:
3278                 if 'string' in res[f]:
3279                     res_trans = translation_obj._get_source(cr, user, self._name + ',' + f, 'field', context['lang'])
3280                     if res_trans:
3281                         res[f]['string'] = res_trans
3282                 if 'help' in res[f]:
3283                     help_trans = translation_obj._get_source(cr, user, self._name + ',' + f, 'help', context['lang'])
3284                     if help_trans:
3285                         res[f]['help'] = help_trans
3286
3287         return res
3288
3289     def get_empty_list_help(self, cr, user, help, context=None):
3290         """ Generic method giving the help message displayed when having
3291             no result to display in a list or kanban view. By default it returns
3292             the help given in parameter that is generally the help message
3293             defined in the action.
3294         """
3295         return help
3296
3297     def check_field_access_rights(self, cr, user, operation, fields, context=None):
3298         """
3299         Check the user access rights on the given fields. This raises Access
3300         Denied if the user does not have the rights. Otherwise it returns the
3301         fields (as is if the fields is not falsy, or the readable/writable
3302         fields if fields is falsy).
3303         """
3304         def p(field_name):
3305             """Predicate to test if the user has access to the given field name."""
3306             # Ignore requested field if it doesn't exist. This is ugly but
3307             # it seems to happen at least with 'name_alias' on res.partner.
3308             if field_name not in self._all_columns:
3309                 return True
3310             field = self._all_columns[field_name].column
3311             if user != SUPERUSER_ID and field.groups:
3312                 return self.user_has_groups(cr, user, groups=field.groups, context=context)
3313             else:
3314                 return True
3315         if not fields:
3316             fields = filter(p, self._all_columns.keys())
3317         else:
3318             filtered_fields = filter(lambda a: not p(a), fields)
3319             if filtered_fields:
3320                 _logger.warning('Access Denied by ACLs for operation: %s, uid: %s, model: %s, fields: %s', operation, user, self._name, ', '.join(filtered_fields))
3321                 raise except_orm(
3322                     _('Access Denied'),
3323                     _('The requested operation cannot be completed due to security restrictions. '
3324                     'Please contact your system administrator.\n\n(Document type: %s, Operation: %s)') % \
3325                     (self._description, operation))
3326         return fields
3327
3328     def read(self, cr, user, ids, fields=None, context=None, load='_classic_read'):
3329         """ Read records with given ids with the given fields
3330
3331         :param cr: database cursor
3332         :param user: current user id
3333         :param ids: id or list of the ids of the records to read
3334         :param fields: optional list of field names to return (default: all fields would be returned)
3335         :type fields: list (example ['field_name_1', ...])
3336         :param context: optional context dictionary - it may contains keys for specifying certain options
3337                         like ``context_lang``, ``context_tz`` to alter the results of the call.
3338                         A special ``bin_size`` boolean flag may also be passed in the context to request the
3339                         value of all fields.binary columns to be returned as the size of the binary instead of its
3340                         contents. This can also be selectively overriden by passing a field-specific flag
3341                         in the form ``bin_size_XXX: True/False`` where ``XXX`` is the name of the field.
3342                         Note: The ``bin_size_XXX`` form is new in OpenERP v6.0.
3343         :return: list of dictionaries((dictionary per record asked)) with requested field values
3344         :rtype: [{‘name_of_the_field’: value, ...}, ...]
3345         :raise AccessError: * if user has no read rights on the requested object
3346                             * if user tries to bypass access rules for read on the requested object
3347
3348         """
3349
3350         self.check_access_rights(cr, user, 'read')
3351         fields = self.check_field_access_rights(cr, user, 'read', fields)
3352         if isinstance(ids, (int, long)):
3353             select = [ids]
3354         else:
3355             select = ids
3356         select = map(lambda x: isinstance(x, dict) and x['id'] or x, select)
3357         result = self._read_flat(cr, user, select, fields, context, load)
3358
3359         if isinstance(ids, (int, long)):
3360             return result and result[0] or False
3361         return result
3362
3363     def _read_flat(self, cr, user, ids, fields_to_read, context=None, load='_classic_read'):
3364         if not context:
3365             context = {}
3366         if not ids:
3367             return []
3368         if fields_to_read is None:
3369             fields_to_read = self._columns.keys()
3370         else:
3371             fields_to_read = list(set(fields_to_read))
3372
3373         # all inherited fields + all non inherited fields for which the attribute whose name is in load is True
3374         fields_pre = [f for f in fields_to_read if
3375                            f == self.CONCURRENCY_CHECK_FIELD
3376                         or (f in self._columns and getattr(self._columns[f], '_classic_write'))
3377                      ] + self._inherits.values()
3378
3379         res = []
3380         if len(fields_pre):
3381             def convert_field(f):
3382                 f_qual = '%s."%s"' % (self._table, f) # need fully-qualified references in case len(tables) > 1
3383                 if f in ('create_date', 'write_date'):
3384                     return "date_trunc('second', %s) as %s" % (f_qual, f)
3385                 if f == self.CONCURRENCY_CHECK_FIELD:
3386                     if self._log_access:
3387                         return "COALESCE(%s.write_date, %s.create_date, (now() at time zone 'UTC'))::timestamp AS %s" % (self._table, self._table, f,)
3388                     return "(now() at time zone 'UTC')::timestamp AS %s" % (f,)
3389                 if isinstance(self._columns[f], fields.binary) and context.get('bin_size', False):
3390                     return 'length(%s) as "%s"' % (f_qual, f)
3391                 return f_qual
3392
3393             # FIXME: The query construction needs to be rewritten using the internal Query
3394             # object, as in search(), to avoid ambiguous column references when
3395             # reading/sorting on a table that is auto_joined to another table with
3396             # common columns (e.g. the magical columns)
3397
3398             # Construct a clause for the security rules.
3399             # 'tables' hold the list of tables necessary for the SELECT including the ir.rule clauses,
3400             # or will at least contain self._table.
3401             rule_clause, rule_params, tables = self.pool.get('ir.rule').domain_get(cr, user, self._name, 'read', context=context)
3402
3403             fields_pre2 = map(convert_field, fields_pre)
3404             order_by = self._parent_order or self._order
3405             select_fields = ','.join(fields_pre2 + ['%s.id' % self._table])
3406             query = 'SELECT %s FROM %s WHERE %s.id IN %%s' % (select_fields, ','.join(tables), self._table)
3407             if rule_clause:
3408                 query += " AND " + (' OR '.join(rule_clause))
3409             query += " ORDER BY " + order_by
3410             for sub_ids in cr.split_for_in_conditions(ids):
3411                 cr.execute(query, [tuple(sub_ids)] + rule_params)
3412                 results = cr.dictfetchall()
3413                 result_ids = [x['id'] for x in results]
3414                 self._check_record_rules_result_count(cr, user, sub_ids, result_ids, 'read', context=context)
3415                 res.extend(results)
3416         else:
3417             self.check_access_rule(cr, user, ids, 'read', context=context)
3418             res = map(lambda x: {'id': x}, ids)
3419
3420         if context.get('lang'):
3421             for f in fields_pre:
3422                 if f == self.CONCURRENCY_CHECK_FIELD:
3423                     continue
3424                 if self._columns[f].translate:
3425                     ids = [x['id'] for x in res]
3426                     #TODO: optimize out of this loop
3427                     res_trans = self.pool.get('ir.translation')._get_ids(cr, user, self._name+','+f, 'model', context['lang'], ids)
3428                     for r in res:
3429                         r[f] = res_trans.get(r['id'], False) or r[f]
3430
3431         for table in self._inherits:
3432             col = self._inherits[table]
3433             cols = [x for x in intersect(self._inherit_fields.keys(), fields_to_read) if x not in self._columns.keys()]
3434             if not cols:
3435                 continue
3436             res2 = self.pool[table].read(cr, user, [x[col] for x in res], cols, context, load)
3437
3438             res3 = {}
3439             for r in res2:
3440                 res3[r['id']] = r
3441                 del r['id']
3442
3443             for record in res:
3444                 if not record[col]: # if the record is deleted from _inherits table?
3445                     continue
3446                 record.update(res3[record[col]])
3447                 if col not in fields_to_read:
3448                     del record[col]
3449
3450         # all fields which need to be post-processed by a simple function (symbol_get)
3451         fields_post = filter(lambda x: x in self._columns and self._columns[x]._symbol_get, fields_to_read)
3452         if fields_post:
3453             for r in res:
3454                 for f in fields_post:
3455                     r[f] = self._columns[f]._symbol_get(r[f])
3456         ids = [x['id'] for x in res]
3457
3458         # all non inherited fields for which the attribute whose name is in load is False
3459         fields_post = filter(lambda x: x in self._columns and not getattr(self._columns[x], load), fields_to_read)
3460
3461         # Compute POST fields
3462         todo = {}
3463         for f in fields_post:
3464             todo.setdefault(self._columns[f]._multi, [])
3465             todo[self._columns[f]._multi].append(f)
3466         for key, val in todo.items():
3467             if key:
3468                 res2 = self._columns[val[0]].get(cr, self, ids, val, user, context=context, values=res)
3469                 assert res2 is not None, \
3470                     'The function field "%s" on the "%s" model returned None\n' \
3471                     '(a dictionary was expected).' % (val[0], self._name)
3472                 for pos in val:
3473                     for record in res:
3474                         if isinstance(res2[record['id']], str): res2[record['id']] = eval(res2[record['id']]) #TOCHECK : why got string instend of dict in python2.6
3475                         multi_fields = res2.get(record['id'],{})
3476                         if multi_fields:
3477                             record[pos] = multi_fields.get(pos,[])
3478             else:
3479                 for f in val:
3480                     res2 = self._columns[f].get(cr, self, ids, f, user, context=context, values=res)
3481                     for record in res:
3482                         if res2:
3483                             record[f] = res2[record['id']]
3484                         else:
3485                             record[f] = []
3486
3487         # Warn about deprecated fields now that fields_pre and fields_post are computed
3488         # Explicitly use list() because we may receive tuples
3489         for f in list(fields_pre) + list(fields_post):
3490             field_column = self._all_columns.get(f) and self._all_columns.get(f).column
3491             if field_column and field_column.deprecated:
3492                 _logger.warning('Field %s.%s is deprecated: %s', self._name, f, field_column.deprecated)
3493
3494         readonly = None
3495         for vals in res:
3496             for field in vals.copy():
3497                 fobj = None
3498                 if field in self._columns:
3499                     fobj = self._columns[field]
3500
3501                 if fobj:
3502                     groups = fobj.read
3503                     if groups:
3504                         edit = False
3505                         for group in groups:
3506                             module = group.split(".")[0]
3507                             grp = group.split(".")[1]
3508                             cr.execute("select count(*) from res_groups_users_rel where gid IN (select res_id from ir_model_data where name=%s and module=%s and model=%s) and uid=%s",  \
3509                                        (grp, module, 'res.groups', user))
3510                             readonly = cr.fetchall()
3511                             if readonly[0][0] >= 1:
3512                                 edit = True
3513                                 break
3514                             elif readonly[0][0] == 0:
3515                                 edit = False
3516                             else:
3517                                 edit = False
3518
3519                         if not edit:
3520                             if type(vals[field]) == type([]):
3521                                 vals[field] = []
3522                             elif type(vals[field]) == type(0.0):
3523                                 vals[field] = 0
3524                             elif type(vals[field]) == type(''):
3525                                 vals[field] = '=No Permission='
3526                             else:
3527                                 vals[field] = False
3528
3529                 if vals[field] is None:
3530                     vals[field] = False
3531
3532         return res
3533
3534     # TODO check READ access
3535     def perm_read(self, cr, user, ids, context=None, details=True):
3536         """
3537         Returns some metadata about the given records.
3538
3539         :param details: if True, \*_uid fields are replaced with the name of the user
3540         :return: list of ownership dictionaries for each requested record
3541         :rtype: list of dictionaries with the following keys:
3542
3543                     * id: object id
3544                     * create_uid: user who created the record
3545                     * create_date: date when the record was created
3546                     * write_uid: last user who changed the record
3547                     * write_date: date of the last change to the record
3548                     * xmlid: XML ID to use to refer to this record (if there is one), in format ``module.name``
3549         """
3550         if not context:
3551             context = {}
3552         if not ids:
3553             return []
3554         fields = ''
3555         uniq = isinstance(ids, (int, long))
3556         if uniq:
3557             ids = [ids]
3558         fields = ['id']
3559         if self._log_access:
3560             fields += ['create_uid', 'create_date', 'write_uid', 'write_date']
3561         quoted_table = '"%s"' % self._table
3562         fields_str = ",".join('%s.%s'%(quoted_table, field) for field in fields)
3563         query = '''SELECT %s, __imd.module, __imd.name
3564                    FROM %s LEFT JOIN ir_model_data __imd
3565                        ON (__imd.model = %%s and __imd.res_id = %s.id)
3566                    WHERE %s.id IN %%s''' % (fields_str, quoted_table, quoted_table, quoted_table)
3567         cr.execute(query, (self._name, tuple(ids)))
3568         res = cr.dictfetchall()
3569         for r in res:
3570             for key in r:
3571                 r[key] = r[key] or False
3572                 if details and key in ('write_uid', 'create_uid') and r[key]:
3573                     try:
3574                         r[key] = self.pool.get('res.users').name_get(cr, user, [r[key]])[0]
3575                     except Exception:
3576                         pass # Leave the numeric uid there
3577             r['xmlid'] = ("%(module)s.%(name)s" % r) if r['name'] else False
3578             del r['name'], r['module']
3579         if uniq:
3580             return res[ids[0]]
3581         return res
3582
3583     def _check_concurrency(self, cr, ids, context):
3584         if not context:
3585             return
3586         if not (context.get(self.CONCURRENCY_CHECK_FIELD) and self._log_access):
3587             return
3588         check_clause = "(id = %s AND %s < COALESCE(write_date, create_date, (now() at time zone 'UTC'))::timestamp)"
3589         for sub_ids in cr.split_for_in_conditions(ids):
3590             ids_to_check = []
3591             for id in sub_ids:
3592                 id_ref = "%s,%s" % (self._name, id)
3593                 update_date = context[self.CONCURRENCY_CHECK_FIELD].pop(id_ref, None)
3594                 if update_date:
3595                     ids_to_check.extend([id, update_date])
3596             if not ids_to_check:
3597                 continue
3598             cr.execute("SELECT id FROM %s WHERE %s" % (self._table, " OR ".join([check_clause]*(len(ids_to_check)/2))), tuple(ids_to_check))
3599             res = cr.fetchone()
3600             if res:
3601                 # mention the first one only to keep the error message readable
3602                 raise except_orm('ConcurrencyException', _('A document was modified since you last viewed it (%s:%d)') % (self._description, res[0]))
3603
3604     def _check_record_rules_result_count(self, cr, uid, ids, result_ids, operation, context=None):
3605         """Verify the returned rows after applying record rules matches
3606            the length of `ids`, and raise an appropriate exception if it does not.
3607         """
3608         ids, result_ids = set(ids), set(result_ids)
3609         missing_ids = ids - result_ids
3610         if missing_ids:
3611             # Attempt to distinguish record rule restriction vs deleted records,
3612             # to provide a more specific error message - check if the missinf
3613             cr.execute('SELECT id FROM ' + self._table + ' WHERE id IN %s', (tuple(missing_ids),))
3614             forbidden_ids = [x[0] for x in cr.fetchall()]
3615             if forbidden_ids:
3616                 # the missing ids are (at least partially) hidden by access rules
3617                 if uid == SUPERUSER_ID:
3618                     return
3619                 _logger.warning('Access Denied by record rules for operation: %s on record ids: %r, uid: %s, model: %s', operation, forbidden_ids, uid, self._name)
3620                 raise except_orm(_('Access Denied'),
3621                                  _('The requested operation cannot be completed due to security restrictions. Please contact your system administrator.\n\n(Document type: %s, Operation: %s)') % \
3622                                     (self._description, operation))
3623             else:
3624                 # If we get here, the missing_ids are not in the database
3625                 if operation in ('read','unlink'):
3626                     # No need to warn about deleting an already deleted record.
3627                     # And no error when reading a record that was deleted, to prevent spurious
3628                     # errors for non-transactional search/read sequences coming from clients
3629                     return
3630                 _logger.warning('Failed operation on deleted record(s): %s, uid: %s, model: %s', operation, uid, self._name)
3631                 raise except_orm(_('Missing document(s)'),
3632                                  _('One of the documents you are trying to access has been deleted, please try again after refreshing.'))
3633
3634
3635     def check_access_rights(self, cr, uid, operation, raise_exception=True): # no context on purpose.
3636         """Verifies that the operation given by ``operation`` is allowed for the user
3637            according to the access rights."""
3638         return self.pool.get('ir.model.access').check(cr, uid, self._name, operation, raise_exception)
3639
3640     def check_access_rule(self, cr, uid, ids, operation, context=None):
3641         """Verifies that the operation given by ``operation`` is allowed for the user
3642            according to ir.rules.
3643
3644            :param operation: one of ``write``, ``unlink``
3645            :raise except_orm: * if current ir.rules do not permit this operation.
3646            :return: None if the operation is allowed
3647         """
3648         if uid == SUPERUSER_ID:
3649             return
3650
3651         if self.is_transient():
3652             # Only one single implicit access rule for transient models: owner only!
3653             # This is ok to hardcode because we assert that TransientModels always
3654             # have log_access enabled so that the create_uid column is always there.
3655             # And even with _inherits, these fields are always present in the local
3656             # table too, so no need for JOINs.
3657             cr.execute("""SELECT distinct create_uid
3658                           FROM %s
3659                           WHERE id IN %%s""" % self._table, (tuple(ids),))
3660             uids = [x[0] for x in cr.fetchall()]
3661             if len(uids) != 1 or uids[0] != uid:
3662                 raise except_orm(_('Access Denied'),
3663                                  _('For this kind of document, you may only access records you created yourself.\n\n(Document type: %s)') % (self._description,))
3664         else:
3665             where_clause, where_params, tables = self.pool.get('ir.rule').domain_get(cr, uid, self._name, operation, context=context)
3666             if where_clause:
3667                 where_clause = ' and ' + ' and '.join(where_clause)
3668                 for sub_ids in cr.split_for_in_conditions(ids):
3669                     cr.execute('SELECT ' + self._table + '.id FROM ' + ','.join(tables) +
3670                                ' WHERE ' + self._table + '.id IN %s' + where_clause,
3671                                [sub_ids] + where_params)
3672                     returned_ids = [x['id'] for x in cr.dictfetchall()]
3673                     self._check_record_rules_result_count(cr, uid, sub_ids, returned_ids, operation, context=context)
3674
3675     def create_workflow(self, cr, uid, ids, context=None):
3676         """Create a workflow instance for each given record IDs."""
3677         from openerp import workflow
3678         for res_id in ids:
3679             workflow.trg_create(uid, self._name, res_id, cr)
3680         return True
3681
3682     def delete_workflow(self, cr, uid, ids, context=None):
3683         """Delete the workflow instances bound to the given record IDs."""
3684         from openerp import workflow
3685         for res_id in ids:
3686             workflow.trg_delete(uid, self._name, res_id, cr)
3687         return True
3688
3689     def step_workflow(self, cr, uid, ids, context=None):
3690         """Reevaluate the workflow instances of the given record IDs."""
3691         from openerp import workflow
3692         for res_id in ids:
3693             workflow.trg_write(uid, self._name, res_id, cr)
3694         return True
3695
3696     def signal_workflow(self, cr, uid, ids, signal, context=None):
3697         """Send given workflow signal and return a dict mapping ids to workflow results"""
3698         from openerp import workflow
3699         result = {}
3700         for res_id in ids:
3701             result[res_id] = workflow.trg_validate(uid, self._name, res_id, signal, cr)
3702         return result
3703
3704     def redirect_workflow(self, cr, uid, old_new_ids, context=None):
3705         """ Rebind the workflow instance bound to the given 'old' record IDs to
3706             the given 'new' IDs. (``old_new_ids`` is a list of pairs ``(old, new)``.
3707         """
3708         from openerp import workflow
3709         for old_id, new_id in old_new_ids:
3710             workflow.trg_redirect(uid, self._name, old_id, new_id, cr)
3711         return True
3712
3713     def unlink(self, cr, uid, ids, context=None):
3714         """
3715         Delete records with given ids
3716
3717         :param cr: database cursor
3718         :param uid: current user id
3719         :param ids: id or list of ids
3720         :param context: (optional) context arguments, like lang, time zone
3721         :return: True
3722         :raise AccessError: * if user has no unlink rights on the requested object
3723                             * if user tries to bypass access rules for unlink on the requested object
3724         :raise UserError: if the record is default property for other records
3725
3726         """
3727         if not ids:
3728             return True
3729         if isinstance(ids, (int, long)):
3730             ids = [ids]
3731
3732         result_store = self._store_get_values(cr, uid, ids, self._all_columns.keys(), context)
3733
3734         self._check_concurrency(cr, ids, context)
3735
3736         self.check_access_rights(cr, uid, 'unlink')
3737
3738         ir_property = self.pool.get('ir.property')
3739         ir_attachment_obj = self.pool.get('ir.attachment')
3740
3741         # Check if the records are used as default properties.
3742         domain = [('res_id', '=', False),
3743                   ('value_reference', 'in', ['%s,%s' % (self._name, i) for i in ids]),
3744                  ]
3745         if ir_property.search(cr, uid, domain, context=context):
3746             raise except_orm(_('Error'), _('Unable to delete this document because it is used as a default property'))
3747
3748         # Delete the records' properties.
3749         property_ids = ir_property.search(cr, uid, [('res_id', 'in', ['%s,%s' % (self._name, i) for i in ids])], context=context)
3750         ir_property.unlink(cr, uid, property_ids, context=context)
3751
3752         self.delete_workflow(cr, uid, ids, context=context)
3753
3754         self.check_access_rule(cr, uid, ids, 'unlink', context=context)
3755         pool_model_data = self.pool.get('ir.model.data')
3756         ir_values_obj = self.pool.get('ir.values')
3757         for sub_ids in cr.split_for_in_conditions(ids):
3758             cr.execute('delete from ' + self._table + ' ' \
3759                        'where id IN %s', (sub_ids,))
3760
3761             # Removing the ir_model_data reference if the record being deleted is a record created by xml/csv file,
3762             # as these are not connected with real database foreign keys, and would be dangling references.
3763             # Note: following steps performed as admin to avoid access rights restrictions, and with no context
3764             #       to avoid possible side-effects during admin calls.
3765             # Step 1. Calling unlink of ir_model_data only for the affected IDS
3766             reference_ids = pool_model_data.search(cr, SUPERUSER_ID, [('res_id','in',list(sub_ids)),('model','=',self._name)])
3767             # Step 2. Marching towards the real deletion of referenced records
3768             if reference_ids:
3769                 pool_model_data.unlink(cr, SUPERUSER_ID, reference_ids)
3770
3771             # For the same reason, removing the record relevant to ir_values
3772             ir_value_ids = ir_values_obj.search(cr, uid,
3773                     ['|',('value','in',['%s,%s' % (self._name, sid) for sid in sub_ids]),'&',('res_id','in',list(sub_ids)),('model','=',self._name)],
3774                     context=context)
3775             if ir_value_ids:
3776                 ir_values_obj.unlink(cr, uid, ir_value_ids, context=context)
3777
3778             # For the same reason, removing the record relevant to ir_attachment
3779             # The search is performed with sql as the search method of ir_attachment is overridden to hide attachments of deleted records
3780             cr.execute('select id from ir_attachment where res_model = %s and res_id in %s', (self._name, sub_ids))
3781             ir_attachment_ids = [ir_attachment[0] for ir_attachment in cr.fetchall()]
3782             if ir_attachment_ids:
3783                 ir_attachment_obj.unlink(cr, uid, ir_attachment_ids, context=context)
3784
3785         for order, obj_name, store_ids, fields in result_store:
3786             if obj_name == self._name:
3787                 effective_store_ids = list(set(store_ids) - set(ids))
3788             else:
3789                 effective_store_ids = store_ids
3790             if effective_store_ids:
3791                 obj = self.pool[obj_name]
3792                 cr.execute('select id from '+obj._table+' where id IN %s', (tuple(effective_store_ids),))
3793                 rids = map(lambda x: x[0], cr.fetchall())
3794                 if rids:
3795                     obj._store_set_values(cr, uid, rids, fields, context)
3796
3797         return True
3798
3799     #
3800     # TODO: Validate
3801     #
3802     def write(self, cr, user, ids, vals, context=None):
3803         """
3804         Update records with given ids with the given field values
3805
3806         :param cr: database cursor
3807         :param user: current user id
3808         :type user: integer
3809         :param ids: object id or list of object ids to update according to **vals**
3810         :param vals: field values to update, e.g {'field_name': new_field_value, ...}
3811         :type vals: dictionary
3812         :param context: (optional) context arguments, e.g. {'lang': 'en_us', 'tz': 'UTC', ...}
3813         :type context: dictionary
3814         :return: True
3815         :raise AccessError: * if user has no write rights on the requested object
3816                             * if user tries to bypass access rules for write on the requested object
3817         :raise ValidateError: if user tries to enter invalid value for a field that is not in selection
3818         :raise UserError: if a loop would be created in a hierarchy of objects a result of the operation (such as setting an object as its own parent)
3819
3820         **Note**: The type of field values to pass in ``vals`` for relationship fields is specific:
3821
3822             + For a many2many field, a list of tuples is expected.
3823               Here is the list of tuple that are accepted, with the corresponding semantics ::
3824
3825                  (0, 0,  { values })    link to a new record that needs to be created with the given values dictionary
3826                  (1, ID, { values })    update the linked record with id = ID (write *values* on it)
3827                  (2, ID)                remove and delete the linked record with id = ID (calls unlink on ID, that will delete the object completely, and the link to it as well)
3828                  (3, ID)                cut the link to the linked record with id = ID (delete the relationship between the two objects but does not delete the target object itself)
3829                  (4, ID)                link to existing record with id = ID (adds a relationship)
3830                  (5)                    unlink all (like using (3,ID) for all linked records)
3831                  (6, 0, [IDs])          replace the list of linked IDs (like using (5) then (4,ID) for each ID in the list of IDs)
3832
3833                  Example:
3834                     [(6, 0, [8, 5, 6, 4])] sets the many2many to ids [8, 5, 6, 4]
3835
3836             + For a one2many field, a lits of tuples is expected.
3837               Here is the list of tuple that are accepted, with the corresponding semantics ::
3838
3839                  (0, 0,  { values })    link to a new record that needs to be created with the given values dictionary
3840                  (1, ID, { values })    update the linked record with id = ID (write *values* on it)
3841                  (2, ID)                remove and delete the linked record with id = ID (calls unlink on ID, that will delete the object completely, and the link to it as well)
3842
3843                  Example:
3844                     [(0, 0, {'field_name':field_value_record1, ...}), (0, 0, {'field_name':field_value_record2, ...})]
3845
3846             + For a many2one field, simply use the ID of target record, which must already exist, or ``False`` to remove the link.
3847             + For a reference field, use a string with the model name, a comma, and the target object id (example: ``'product.product, 5'``)
3848
3849         """
3850         readonly = None
3851         self.check_field_access_rights(cr, user, 'write', vals.keys())
3852         deleted_related = defaultdict(list)
3853         for field in vals.copy():
3854             fobj = None
3855             if field in self._columns:
3856                 fobj = self._columns[field]
3857             elif field in self._inherit_fields:
3858                 fobj = self._inherit_fields[field][2]
3859             if not fobj:
3860                 continue
3861             if fobj._type in ['one2many', 'many2many'] and vals[field]:
3862                 for wtuple in vals[field]:
3863                     if isinstance(wtuple, (tuple, list)) and wtuple[0] == 2:
3864                         deleted_related[fobj._obj].append(wtuple[1])
3865             groups = fobj.write
3866
3867             if groups:
3868                 edit = False
3869                 for group in groups:
3870                     module = group.split(".")[0]
3871                     grp = group.split(".")[1]
3872                     cr.execute("select count(*) from res_groups_users_rel where gid IN (select res_id from ir_model_data where name=%s and module=%s and model=%s) and uid=%s", \
3873                                (grp, module, 'res.groups', user))
3874                     readonly = cr.fetchall()
3875                     if readonly[0][0] >= 1:
3876                         edit = True
3877                         break
3878
3879                 if not edit:
3880                     vals.pop(field)
3881
3882         if not context:
3883             context = {}
3884         if not ids:
3885             return True
3886         if isinstance(ids, (int, long)):
3887             ids = [ids]
3888
3889         self._check_concurrency(cr, ids, context)
3890         self.check_access_rights(cr, user, 'write')
3891
3892         result = self._store_get_values(cr, user, ids, vals.keys(), context) or []
3893
3894         # No direct update of parent_left/right
3895         vals.pop('parent_left', None)
3896         vals.pop('parent_right', None)
3897
3898         parents_changed = []
3899         parent_order = self._parent_order or self._order
3900         if self._parent_store and (self._parent_name in vals):
3901             # The parent_left/right computation may take up to
3902             # 5 seconds. No need to recompute the values if the
3903             # parent is the same.
3904             # Note: to respect parent_order, nodes must be processed in
3905             # order, so ``parents_changed`` must be ordered properly.
3906             parent_val = vals[self._parent_name]
3907             if parent_val:
3908                 query = "SELECT id FROM %s WHERE id IN %%s AND (%s != %%s OR %s IS NULL) ORDER BY %s" % \
3909                                 (self._table, self._parent_name, self._parent_name, parent_order)
3910                 cr.execute(query, (tuple(ids), parent_val))
3911             else:
3912                 query = "SELECT id FROM %s WHERE id IN %%s AND (%s IS NOT NULL) ORDER BY %s" % \
3913                                 (self._table, self._parent_name, parent_order)
3914                 cr.execute(query, (tuple(ids),))
3915             parents_changed = map(operator.itemgetter(0), cr.fetchall())
3916
3917         upd0 = []
3918         upd1 = []
3919         upd_todo = []
3920         updend = []
3921         direct = []
3922         totranslate = context.get('lang', False) and (context['lang'] != 'en_US')
3923         for field in vals:
3924             field_column = self._all_columns.get(field) and self._all_columns.get(field).column
3925             if field_column and field_column.deprecated:
3926                 _logger.warning('Field %s.%s is deprecated: %s', self._name, field, field_column.deprecated)
3927             if field in self._columns:
3928                 if self._columns[field]._classic_write and not (hasattr(self._columns[field], '_fnct_inv')):
3929                     if (not totranslate) or not self._columns[field].translate:
3930                         upd0.append('"'+field+'"='+self._columns[field]._symbol_set[0])
3931                         upd1.append(self._columns[field]._symbol_set[1](vals[field]))
3932                     direct.append(field)
3933                 else:
3934                     upd_todo.append(field)
3935             else:
3936                 updend.append(field)
3937             if field in self._columns \
3938                     and hasattr(self._columns[field], 'selection') \
3939                     and vals[field]:
3940                 self._check_selection_field_value(cr, user, field, vals[field], context=context)
3941
3942         if self._log_access:
3943             upd0.append('write_uid=%s')
3944             upd0.append("write_date=(now() at time zone 'UTC')")
3945             upd1.append(user)
3946
3947         if len(upd0):
3948             self.check_access_rule(cr, user, ids, 'write', context=context)
3949             for sub_ids in cr.split_for_in_conditions(ids):
3950                 cr.execute('update ' + self._table + ' set ' + ','.join(upd0) + ' ' \
3951                            'where id IN %s', upd1 + [sub_ids])
3952                 if cr.rowcount != len(sub_ids):
3953                     raise except_orm(_('AccessError'),
3954                                      _('One of the records you are trying to modify has already been deleted (Document type: %s).') % self._description)
3955
3956             if totranslate:
3957                 # TODO: optimize
3958                 for f in direct:
3959                     if self._columns[f].translate:
3960                         src_trans = self.pool[self._name].read(cr, user, ids, [f])[0][f]
3961                         if not src_trans:
3962                             src_trans = vals[f]
3963                             # Inserting value to DB
3964                             context_wo_lang = dict(context, lang=None)
3965                             self.write(cr, user, ids, {f: vals[f]}, context=context_wo_lang)
3966                         self.pool.get('ir.translation')._set_ids(cr, user, self._name+','+f, 'model', context['lang'], ids, vals[f], src_trans)
3967
3968
3969         # call the 'set' method of fields which are not classic_write
3970         upd_todo.sort(lambda x, y: self._columns[x].priority-self._columns[y].priority)
3971
3972         # default element in context must be removed when call a one2many or many2many
3973         rel_context = context.copy()
3974         for c in context.items():
3975             if c[0].startswith('default_'):
3976                 del rel_context[c[0]]
3977
3978         for field in upd_todo:
3979             for id in ids:
3980                 result += self._columns[field].set(cr, self, id, field, vals[field], user, context=rel_context) or []
3981
3982         unknown_fields = updend[:]
3983         for table in self._inherits:
3984             col = self._inherits[table]
3985             nids = []
3986             for sub_ids in cr.split_for_in_conditions(ids):
3987                 cr.execute('select distinct "'+col+'" from "'+self._table+'" ' \
3988                            'where id IN %s', (sub_ids,))
3989                 nids.extend([x[0] for x in cr.fetchall()])
3990
3991             v = {}
3992             for val in updend:
3993                 if self._inherit_fields[val][0] == table:
3994                     v[val] = vals[val]
3995                     unknown_fields.remove(val)
3996             if v:
3997                 self.pool[table].write(cr, user, nids, v, context)
3998
3999         if unknown_fields:
4000             _logger.warning(
4001                 'No such field(s) in model %s: %s.',
4002                 self._name, ', '.join(unknown_fields))
4003         self._validate(cr, user, ids, context)
4004
4005         # TODO: use _order to set dest at the right position and not first node of parent
4006         # We can't defer parent_store computation because the stored function
4007         # fields that are computer may refer (directly or indirectly) to
4008         # parent_left/right (via a child_of domain)
4009         if parents_changed:
4010             if self.pool._init:
4011                 self.pool._init_parent[self._name] = True
4012             else:
4013                 order = self._parent_order or self._order
4014                 parent_val = vals[self._parent_name]
4015                 if parent_val:
4016                     clause, params = '%s=%%s' % (self._parent_name,), (parent_val,)
4017                 else:
4018                     clause, params = '%s IS NULL' % (self._parent_name,), ()
4019
4020                 for id in parents_changed:
4021                     cr.execute('SELECT parent_left, parent_right FROM %s WHERE id=%%s' % (self._table,), (id,))
4022                     pleft, pright = cr.fetchone()
4023                     distance = pright - pleft + 1
4024
4025                     # Positions of current siblings, to locate proper insertion point;
4026                     # this can _not_ be fetched outside the loop, as it needs to be refreshed
4027                     # after each update, in case several nodes are sequentially inserted one
4028                     # next to the other (i.e computed incrementally)
4029                     cr.execute('SELECT parent_right, id FROM %s WHERE %s ORDER BY %s' % (self._table, clause, parent_order), params)
4030                     parents = cr.fetchall()
4031
4032                     # Find Position of the element
4033                     position = None
4034                     for (parent_pright, parent_id) in parents:
4035                         if parent_id == id:
4036                             break
4037                         position = parent_pright and parent_pright + 1 or 1
4038
4039                     # It's the first node of the parent
4040                     if not position:
4041                         if not parent_val:
4042                             position = 1
4043                         else:
4044                             cr.execute('select parent_left from '+self._table+' where id=%s', (parent_val,))
4045                             position = cr.fetchone()[0] + 1
4046
4047                     if pleft < position <= pright:
4048                         raise except_orm(_('UserError'), _('Recursivity Detected.'))
4049
4050                     if pleft < position:
4051                         cr.execute('update '+self._table+' set parent_left=parent_left+%s where parent_left>=%s', (distance, position))
4052                         cr.execute('update '+self._table+' set parent_right=parent_right+%s where parent_right>=%s', (distance, position))
4053                         cr.execute('update '+self._table+' set parent_left=parent_left+%s, parent_right=parent_right+%s where parent_left>=%s and parent_left<%s', (position-pleft, position-pleft, pleft, pright))
4054                     else:
4055                         cr.execute('update '+self._table+' set parent_left=parent_left+%s where parent_left>=%s', (distance, position))
4056                         cr.execute('update '+self._table+' set parent_right=parent_right+%s where parent_right>=%s', (distance, position))
4057                         cr.execute('update '+self._table+' set parent_left=parent_left-%s, parent_right=parent_right-%s where parent_left>=%s and parent_left<%s', (pleft-position+distance, pleft-position+distance, pleft+distance, pright+distance))
4058
4059         result += self._store_get_values(cr, user, ids, vals.keys(), context)
4060         result.sort()
4061
4062         done = {}
4063         for order, model_name, ids_to_update, fields_to_recompute in result:
4064             key = (model_name, tuple(fields_to_recompute))
4065             done.setdefault(key, {})
4066             # avoid to do several times the same computation
4067             todo = []
4068             for id in ids_to_update:
4069                 if id not in done[key]:
4070                     done[key][id] = True
4071                     if id not in deleted_related[model_name]:
4072                         todo.append(id)
4073             self.pool[model_name]._store_set_values(cr, user, todo, fields_to_recompute, context)
4074
4075         self.step_workflow(cr, user, ids, context=context)
4076         return True
4077
4078     #
4079     # TODO: Should set perm to user.xxx
4080     #
4081     def create(self, cr, user, vals, context=None):
4082         """
4083         Create a new record for the model.
4084
4085         The values for the new record are initialized using the ``vals``
4086         argument, and if necessary the result of ``default_get()``.
4087
4088         :param cr: database cursor
4089         :param user: current user id
4090         :type user: integer
4091         :param vals: field values for new record, e.g {'field_name': field_value, ...}
4092         :type vals: dictionary
4093         :param context: optional context arguments, e.g. {'lang': 'en_us', 'tz': 'UTC', ...}
4094         :type context: dictionary
4095         :return: id of new record created
4096         :raise AccessError: * if user has no create rights on the requested object
4097                             * if user tries to bypass access rules for create on the requested object
4098         :raise ValidateError: if user tries to enter invalid value for a field that is not in selection
4099         :raise UserError: if a loop would be created in a hierarchy of objects a result of the operation (such as setting an object as its own parent)
4100
4101         **Note**: The type of field values to pass in ``vals`` for relationship fields is specific.
4102         Please see the description of the :py:meth:`~osv.osv.osv.write` method for details about the possible values and how
4103         to specify them.
4104
4105         """
4106         if not context:
4107             context = {}
4108
4109         if self.is_transient():
4110             self._transient_vacuum(cr, user)
4111
4112         self.check_access_rights(cr, user, 'create')
4113
4114         vals = self._add_missing_default_values(cr, user, vals, context)
4115
4116         if self._log_access:
4117             for f in LOG_ACCESS_COLUMNS:
4118                 if vals.pop(f, None) is not None:
4119                     _logger.warning(
4120                         'Field `%s` is not allowed when creating the model `%s`.',
4121                         f, self._name)
4122
4123         tocreate = {}
4124         for v in self._inherits:
4125             if self._inherits[v] not in vals:
4126                 tocreate[v] = {}
4127             else:
4128                 tocreate[v] = {'id': vals[self._inherits[v]]}
4129
4130         columns = [
4131             # columns will contain a list of field defined as a tuple
4132             # tuple(field_name, format_string, field_value)
4133             # the tuple will be used by the string formatting for the INSERT
4134             # statement.
4135             ('id', "nextval('%s')" % self._sequence),
4136         ]
4137
4138         upd_todo = []
4139         unknown_fields = []
4140         for v in vals.keys():
4141             if v in self._inherit_fields and v not in self._columns:
4142                 (table, col, col_detail, original_parent) = self._inherit_fields[v]
4143                 tocreate[table][v] = vals[v]
4144                 del vals[v]
4145             else:
4146                 if (v not in self._inherit_fields) and (v not in self._columns):
4147                     del vals[v]
4148                     unknown_fields.append(v)
4149         if unknown_fields:
4150             _logger.warning(
4151                 'No such field(s) in model %s: %s.',
4152                 self._name, ', '.join(unknown_fields))
4153
4154         if not self._sequence:
4155             raise except_orm(
4156                 _('UserError'),
4157                 _('You cannot perform this operation. New Record Creation is not allowed for this object as this object is for reporting purpose.')
4158             )
4159
4160         for table in tocreate:
4161             if self._inherits[table] in vals:
4162                 del vals[self._inherits[table]]
4163
4164             record_id = tocreate[table].pop('id', None)
4165
4166             # When linking/creating parent records, force context without 'no_store_function' key that
4167             # defers stored functions computing, as these won't be computed in batch at the end of create().
4168             parent_context = dict(context)
4169             parent_context.pop('no_store_function', None)
4170
4171             if record_id is None or not record_id:
4172                 record_id = self.pool[table].create(cr, user, tocreate[table], context=parent_context)
4173             else:
4174                 self.pool[table].write(cr, user, [record_id], tocreate[table], context=parent_context)
4175
4176             columns.append((self._inherits[table], '%s', record_id))
4177
4178         #Start : Set bool fields to be False if they are not touched(to make search more powerful)
4179         bool_fields = [x for x in self._columns.keys() if self._columns[x]._type=='boolean']
4180
4181         for bool_field in bool_fields:
4182             if bool_field not in vals:
4183                 vals[bool_field] = False
4184         #End
4185         for field in vals.copy():
4186             fobj = None
4187             if field in self._columns:
4188                 fobj = self._columns[field]
4189             else:
4190                 fobj = self._inherit_fields[field][2]
4191             if not fobj:
4192                 continue
4193             groups = fobj.write
4194             if groups:
4195                 edit = False
4196                 for group in groups:
4197                     module = group.split(".")[0]
4198                     grp = group.split(".")[1]
4199                     cr.execute("select count(*) from res_groups_users_rel where gid IN (select res_id from ir_model_data where name='%s' and module='%s' and model='%s') and uid=%s" % \
4200                                (grp, module, 'res.groups', user))
4201                     readonly = cr.fetchall()
4202                     if readonly[0][0] >= 1:
4203                         edit = True
4204                         break
4205                     elif readonly[0][0] == 0:
4206                         edit = False
4207                     else:
4208                         edit = False
4209
4210                 if not edit:
4211                     vals.pop(field)
4212         for field in vals:
4213             current_field = self._columns[field]
4214             if current_field._classic_write:
4215                 columns.append((field, '%s', current_field._symbol_set[1](vals[field])))
4216
4217                 #for the function fields that receive a value, we set them directly in the database
4218                 #(they may be required), but we also need to trigger the _fct_inv()
4219                 if (hasattr(current_field, '_fnct_inv')) and not isinstance(current_field, fields.related):
4220                     #TODO: this way to special case the related fields is really creepy but it shouldn't be changed at
4221                     #one week of the release candidate. It seems the only good way to handle correctly this is to add an
4222                     #attribute to make a field `really readonly´ and thus totally ignored by the create()... otherwise
4223                     #if, for example, the related has a default value (for usability) then the fct_inv is called and it
4224                     #may raise some access rights error. Changing this is a too big change for now, and is thus postponed
4225                     #after the release but, definitively, the behavior shouldn't be different for related and function
4226                     #fields.
4227                     upd_todo.append(field)
4228             else:
4229                 #TODO: this `if´ statement should be removed because there is no good reason to special case the fields
4230                 #related. See the above TODO comment for further explanations.
4231                 if not isinstance(current_field, fields.related):
4232                     upd_todo.append(field)
4233             if field in self._columns \
4234                     and hasattr(current_field, 'selection') \
4235                     and vals[field]:
4236                 self._check_selection_field_value(cr, user, field, vals[field], context=context)
4237         if self._log_access:
4238             columns.append(('create_uid', '%s', user))
4239             columns.append(('write_uid', '%s', user))
4240             columns.append(('create_date', "(now() at time zone 'UTC')"))
4241             columns.append(('write_date', "(now() at time zone 'UTC')"))
4242
4243         # the list of tuples used in this formatting corresponds to
4244         # tuple(field_name, format, value)
4245         # In some case, for example (id, create_date, write_date) we does not
4246         # need to read the third value of the tuple, because the real value is
4247         # encoded in the second value (the format).
4248         cr.execute(
4249             """INSERT INTO "%s" (%s) VALUES(%s) RETURNING id""" % (
4250                 self._table,
4251                 ', '.join('"%s"' % f[0] for f in columns),
4252                 ', '.join(f[1] for f in columns)
4253             ),
4254             tuple([f[2] for f in columns if len(f) > 2])
4255         )
4256
4257         id_new, = cr.fetchone()
4258         upd_todo.sort(lambda x, y: self._columns[x].priority-self._columns[y].priority)
4259
4260         if self._parent_store and not context.get('defer_parent_store_computation'):
4261             if self.pool._init:
4262                 self.pool._init_parent[self._name] = True
4263             else:
4264                 parent = vals.get(self._parent_name, False)
4265                 if parent:
4266                     cr.execute('select parent_right from '+self._table+' where '+self._parent_name+'=%s order by '+(self._parent_order or self._order), (parent,))
4267                     pleft_old = None
4268                     result_p = cr.fetchall()
4269                     for (pleft,) in result_p:
4270                         if not pleft:
4271                             break
4272                         pleft_old = pleft
4273                     if not pleft_old:
4274                         cr.execute('select parent_left from '+self._table+' where id=%s', (parent,))
4275                         pleft_old = cr.fetchone()[0]
4276                     pleft = pleft_old
4277                 else:
4278                     cr.execute('select max(parent_right) from '+self._table)
4279                     pleft = cr.fetchone()[0] or 0
4280                 cr.execute('update '+self._table+' set parent_left=parent_left+2 where parent_left>%s', (pleft,))
4281                 cr.execute('update '+self._table+' set parent_right=parent_right+2 where parent_right>%s', (pleft,))
4282                 cr.execute('update '+self._table+' set parent_left=%s,parent_right=%s where id=%s', (pleft+1, pleft+2, id_new))
4283
4284         # default element in context must be remove when call a one2many or many2many
4285         rel_context = context.copy()
4286         for c in context.items():
4287             if c[0].startswith('default_'):
4288                 del rel_context[c[0]]
4289
4290         result = []
4291         for field in upd_todo:
4292             result += self._columns[field].set(cr, self, id_new, field, vals[field], user, rel_context) or []
4293         self._validate(cr, user, [id_new], context)
4294
4295         if not context.get('no_store_function', False):
4296             result += self._store_get_values(cr, user, [id_new],
4297                 list(set(vals.keys() + self._inherits.values())),
4298                 context)
4299             result.sort()
4300             done = []
4301             for order, model_name, ids, fields2 in result:
4302                 if not (model_name, ids, fields2) in done:
4303                     self.pool[model_name]._store_set_values(cr, user, ids, fields2, context)
4304                     done.append((model_name, ids, fields2))
4305
4306         if self._log_create and not (context and context.get('no_store_function', False)):
4307             message = self._description + \
4308                 " '" + \
4309                 self.name_get(cr, user, [id_new], context=context)[0][1] + \
4310                 "' " + _("created.")
4311             self.log(cr, user, id_new, message, True, context=context)
4312         self.check_access_rule(cr, user, [id_new], 'create', context=context)
4313         self.create_workflow(cr, user, [id_new], context=context)
4314         return id_new
4315
4316     def browse(self, cr, uid, select, context=None, list_class=None, fields_process=None):
4317         """Fetch records as objects allowing to use dot notation to browse fields and relations
4318
4319         :param cr: database cursor
4320         :param uid: current user id
4321         :param select: id or list of ids.
4322         :param context: context arguments, like lang, time zone
4323         :rtype: object or list of objects requested
4324
4325         """
4326         self._list_class = list_class or browse_record_list
4327         cache = {}
4328         # need to accepts ints and longs because ids coming from a method
4329         # launched by button in the interface have a type long...
4330         if isinstance(select, (int, long)):
4331             return browse_record(cr, uid, select, self, cache, context=context, list_class=self._list_class, fields_process=fields_process)
4332         elif isinstance(select, list):
4333             return self._list_class((browse_record(cr, uid, id, self, cache, context=context, list_class=self._list_class, fields_process=fields_process) for id in select), context=context)
4334         else:
4335             return browse_null()
4336
4337     def _store_get_values(self, cr, uid, ids, fields, context):
4338         """Returns an ordered list of fields.function to call due to
4339            an update operation on ``fields`` of records with ``ids``,
4340            obtained by calling the 'store' triggers of these fields,
4341            as setup by their 'store' attribute.
4342
4343            :return: [(priority, model_name, [record_ids,], [function_fields,])]
4344         """
4345         if fields is None: fields = []
4346         stored_functions = self.pool._store_function.get(self._name, [])
4347
4348         # use indexed names for the details of the stored_functions:
4349         model_name_, func_field_to_compute_, target_ids_func_, trigger_fields_, priority_ = range(5)
4350
4351         # only keep store triggers that should be triggered for the ``fields``
4352         # being written to.
4353         triggers_to_compute = [f for f in stored_functions \
4354                 if ((not f[trigger_fields_]) or set(fields).intersection(f[trigger_fields_]))]
4355
4356         to_compute_map = {}
4357         target_id_results = {}
4358         for store_trigger in triggers_to_compute:
4359             target_func_id_ = id(store_trigger[target_ids_func_])
4360             if not target_func_id_ in target_id_results:
4361                 # use admin user for accessing objects having rules defined on store fields
4362                 target_id_results[target_func_id_] = [i for i in store_trigger[target_ids_func_](self, cr, SUPERUSER_ID, ids, context) if i]
4363             target_ids = target_id_results[target_func_id_]
4364
4365             # the compound key must consider the priority and model name
4366             key = (store_trigger[priority_], store_trigger[model_name_])
4367             for target_id in target_ids:
4368                 to_compute_map.setdefault(key, {}).setdefault(target_id,set()).add(tuple(store_trigger))
4369
4370         # Here to_compute_map looks like:
4371         # { (10, 'model_a') : { target_id1: [ (trigger_1_tuple, trigger_2_tuple) ], ... }
4372         #   (20, 'model_a') : { target_id2: [ (trigger_3_tuple, trigger_4_tuple) ], ... }
4373         #   (99, 'model_a') : { target_id1: [ (trigger_5_tuple, trigger_6_tuple) ], ... }
4374         # }
4375
4376         # Now we need to generate the batch function calls list
4377         # call_map =
4378         #   { (10, 'model_a') : [(10, 'model_a', [record_ids,], [function_fields,])] }
4379         call_map = {}
4380         for ((priority,model), id_map) in to_compute_map.iteritems():
4381             trigger_ids_maps = {}
4382             # function_ids_maps =
4383             #   { (function_1_tuple, function_2_tuple) : [target_id1, target_id2, ..] }
4384             for target_id, triggers in id_map.iteritems():
4385                 trigger_ids_maps.setdefault(tuple(triggers), []).append(target_id)
4386             for triggers, target_ids in trigger_ids_maps.iteritems():
4387                 call_map.setdefault((priority,model),[]).append((priority, model, target_ids,
4388                                                                  [t[func_field_to_compute_] for t in triggers]))
4389         ordered_keys = call_map.keys()
4390         ordered_keys.sort()
4391         result = []
4392         if ordered_keys:
4393             result = reduce(operator.add, (call_map[k] for k in ordered_keys))
4394         return result
4395
4396     def _store_set_values(self, cr, uid, ids, fields, context):
4397         """Calls the fields.function's "implementation function" for all ``fields``, on records with ``ids`` (taking care of
4398            respecting ``multi`` attributes), and stores the resulting values in the database directly."""
4399         if not ids:
4400             return True
4401         field_flag = False
4402         field_dict = {}
4403         if self._log_access:
4404             cr.execute('select id,write_date from '+self._table+' where id IN %s', (tuple(ids),))
4405             res = cr.fetchall()
4406             for r in res:
4407                 if r[1]:
4408                     field_dict.setdefault(r[0], [])
4409                     res_date = time.strptime((r[1])[:19], '%Y-%m-%d %H:%M:%S')
4410                     write_date = datetime.datetime.fromtimestamp(time.mktime(res_date))
4411                     for i in self.pool._store_function.get(self._name, []):
4412                         if i[5]:
4413                             up_write_date = write_date + datetime.timedelta(hours=i[5])
4414                             if datetime.datetime.now() < up_write_date:
4415                                 if i[1] in fields:
4416                                     field_dict[r[0]].append(i[1])
4417                                     if not field_flag:
4418                                         field_flag = True
4419         todo = {}
4420         keys = []
4421         for f in fields:
4422             if self._columns[f]._multi not in keys:
4423                 keys.append(self._columns[f]._multi)
4424             todo.setdefault(self._columns[f]._multi, [])
4425             todo[self._columns[f]._multi].append(f)
4426         for key in keys:
4427             val = todo[key]
4428             if key:
4429                 # use admin user for accessing objects having rules defined on store fields
4430                 result = self._columns[val[0]].get(cr, self, ids, val, SUPERUSER_ID, context=context)
4431                 for id, value in result.items():
4432                     if field_flag:
4433                         for f in value.keys():
4434                             if f in field_dict[id]:
4435                                 value.pop(f)
4436                     upd0 = []
4437                     upd1 = []
4438                     for v in value:
4439                         if v not in val:
4440                             continue
4441                         if self._columns[v]._type == 'many2one':
4442                             try:
4443                                 value[v] = value[v][0]
4444                             except:
4445                                 pass
4446                         upd0.append('"'+v+'"='+self._columns[v]._symbol_set[0])
4447                         upd1.append(self._columns[v]._symbol_set[1](value[v]))
4448                     upd1.append(id)
4449                     if upd0 and upd1:
4450                         cr.execute('update "' + self._table + '" set ' + \
4451                             ','.join(upd0) + ' where id = %s', upd1)
4452
4453             else:
4454                 for f in val:
4455                     # use admin user for accessing objects having rules defined on store fields
4456                     result = self._columns[f].get(cr, self, ids, f, SUPERUSER_ID, context=context)
4457                     for r in result.keys():
4458                         if field_flag:
4459                             if r in field_dict.keys():
4460                                 if f in field_dict[r]:
4461                                     result.pop(r)
4462                     for id, value in result.items():
4463                         if self._columns[f]._type == 'many2one':
4464                             try:
4465                                 value = value[0]
4466                             except:
4467                                 pass
4468                         cr.execute('update "' + self._table + '" set ' + \
4469                             '"'+f+'"='+self._columns[f]._symbol_set[0] + ' where id = %s', (self._columns[f]._symbol_set[1](value), id))
4470         return True
4471
4472     #
4473     # TODO: Validate
4474     #
4475     def perm_write(self, cr, user, ids, fields, context=None):
4476         raise NotImplementedError(_('This method does not exist anymore'))
4477
4478     # TODO: ameliorer avec NULL
4479     def _where_calc(self, cr, user, domain, active_test=True, context=None):
4480         """Computes the WHERE clause needed to implement an OpenERP domain.
4481         :param domain: the domain to compute
4482         :type domain: list
4483         :param active_test: whether the default filtering of records with ``active``
4484                             field set to ``False`` should be applied.
4485         :return: the query expressing the given domain as provided in domain
4486         :rtype: osv.query.Query
4487         """
4488         if not context:
4489             context = {}
4490         domain = domain[:]
4491         # if the object has a field named 'active', filter out all inactive
4492         # records unless they were explicitely asked for
4493         if 'active' in self._all_columns and (active_test and context.get('active_test', True)):
4494             if domain:
4495                 # the item[0] trick below works for domain items and '&'/'|'/'!'
4496                 # operators too
4497                 if not any(item[0] == 'active' for item in domain):
4498                     domain.insert(0, ('active', '=', 1))
4499             else:
4500                 domain = [('active', '=', 1)]
4501
4502         if domain:
4503             e = expression.expression(cr, user, domain, self, context)
4504             tables = e.get_tables()
4505             where_clause, where_params = e.to_sql()
4506             where_clause = where_clause and [where_clause] or []
4507         else:
4508             where_clause, where_params, tables = [], [], ['"%s"' % self._table]
4509
4510         return Query(tables, where_clause, where_params)
4511
4512     def _check_qorder(self, word):
4513         if not regex_order.match(word):
4514             raise except_orm(_('AccessError'), _('Invalid "order" specified. A valid "order" specification is a comma-separated list of valid field names (optionally followed by asc/desc for the direction)'))
4515         return True
4516
4517     def _apply_ir_rules(self, cr, uid, query, mode='read', context=None):
4518         """Add what's missing in ``query`` to implement all appropriate ir.rules
4519           (using the ``model_name``'s rules or the current model's rules if ``model_name`` is None)
4520
4521            :param query: the current query object
4522         """
4523         if uid == SUPERUSER_ID:
4524             return
4525
4526         def apply_rule(added_clause, added_params, added_tables, parent_model=None, child_object=None):
4527             """ :param string parent_model: string of the parent model
4528                 :param model child_object: model object, base of the rule application
4529             """
4530             if added_clause:
4531                 if parent_model and child_object:
4532                     # as inherited rules are being applied, we need to add the missing JOIN
4533                     # to reach the parent table (if it was not JOINed yet in the query)
4534                     parent_alias = child_object._inherits_join_add(child_object, parent_model, query)
4535                     # inherited rules are applied on the external table -> need to get the alias and replace
4536                     parent_table = self.pool[parent_model]._table
4537                     added_clause = [clause.replace('"%s"' % parent_table, '"%s"' % parent_alias) for clause in added_clause]
4538                     # change references to parent_table to parent_alias, because we now use the alias to refer to the table
4539                     new_tables = []
4540                     for table in added_tables:
4541                         # table is just a table name -> switch to the full alias
4542                         if table == '"%s"' % parent_table:
4543                             new_tables.append('"%s" as "%s"' % (parent_table, parent_alias))
4544                         # table is already a full statement -> replace reference to the table to its alias, is correct with the way aliases are generated
4545                         else:
4546                             new_tables.append(table.replace('"%s"' % parent_table, '"%s"' % parent_alias))
4547                     added_tables = new_tables
4548                 query.where_clause += added_clause
4549                 query.where_clause_params += added_params
4550                 for table in added_tables:
4551                     if table not in query.tables:
4552                         query.tables.append(table)
4553                 return True
4554             return False
4555
4556         # apply main rules on the object
4557         rule_obj = self.pool.get('ir.rule')
4558         rule_where_clause, rule_where_clause_params, rule_tables = rule_obj.domain_get(cr, uid, self._name, mode, context=context)
4559         apply_rule(rule_where_clause, rule_where_clause_params, rule_tables)
4560
4561         # apply ir.rules from the parents (through _inherits)
4562         for inherited_model in self._inherits:
4563             rule_where_clause, rule_where_clause_params, rule_tables = rule_obj.domain_get(cr, uid, inherited_model, mode, context=context)
4564             apply_rule(rule_where_clause, rule_where_clause_params, rule_tables,
4565                         parent_model=inherited_model, child_object=self)
4566
4567     def _generate_m2o_order_by(self, order_field, query):
4568         """
4569         Add possibly missing JOIN to ``query`` and generate the ORDER BY clause for m2o fields,
4570         either native m2o fields or function/related fields that are stored, including
4571         intermediate JOINs for inheritance if required.
4572
4573         :return: the qualified field name to use in an ORDER BY clause to sort by ``order_field``
4574         """
4575         if order_field not in self._columns and order_field in self._inherit_fields:
4576             # also add missing joins for reaching the table containing the m2o field
4577             qualified_field = self._inherits_join_calc(order_field, query)
4578             order_field_column = self._inherit_fields[order_field][2]
4579         else:
4580             qualified_field = '"%s"."%s"' % (self._table, order_field)
4581             order_field_column = self._columns[order_field]
4582
4583         assert order_field_column._type == 'many2one', 'Invalid field passed to _generate_m2o_order_by()'
4584         if not order_field_column._classic_write and not getattr(order_field_column, 'store', False):
4585             _logger.debug("Many2one function/related fields must be stored " \
4586                 "to be used as ordering fields! Ignoring sorting for %s.%s",
4587                 self._name, order_field)
4588             return
4589
4590         # figure out the applicable order_by for the m2o
4591         dest_model = self.pool[order_field_column._obj]
4592         m2o_order = dest_model._order
4593         if not regex_order.match(m2o_order):
4594             # _order is complex, can't use it here, so we default to _rec_name
4595             m2o_order = dest_model._rec_name
4596         else:
4597             # extract the field names, to be able to qualify them and add desc/asc
4598             m2o_order_list = []
4599             for order_part in m2o_order.split(","):
4600                 m2o_order_list.append(order_part.strip().split(" ", 1)[0].strip())
4601             m2o_order = m2o_order_list
4602
4603         # Join the dest m2o table if it's not joined yet. We use [LEFT] OUTER join here
4604         # as we don't want to exclude results that have NULL values for the m2o
4605         src_table, src_field = qualified_field.replace('"', '').split('.', 1)
4606         dst_alias, dst_alias_statement = query.add_join((src_table, dest_model._table, src_field, 'id', src_field), implicit=False, outer=True)
4607         qualify = lambda field: '"%s"."%s"' % (dst_alias, field)
4608         return map(qualify, m2o_order) if isinstance(m2o_order, list) else qualify(m2o_order)
4609
4610     def _generate_order_by(self, order_spec, query):
4611         """
4612         Attempt to consruct an appropriate ORDER BY clause based on order_spec, which must be
4613         a comma-separated list of valid field names, optionally followed by an ASC or DESC direction.
4614
4615         :raise" except_orm in case order_spec is malformed
4616         """
4617         order_by_clause = ''
4618         order_spec = order_spec or self._order
4619         if order_spec:
4620             order_by_elements = []
4621             self._check_qorder(order_spec)
4622             for order_part in order_spec.split(','):
4623                 order_split = order_part.strip().split(' ')
4624                 order_field = order_split[0].strip()
4625                 order_direction = order_split[1].strip() if len(order_split) == 2 else ''
4626                 inner_clause = None
4627                 if order_field == 'id' or (self._log_access and order_field in LOG_ACCESS_COLUMNS.keys()):
4628                     order_by_elements.append('"%s"."%s" %s' % (self._table, order_field, order_direction))
4629                 elif order_field in self._columns:
4630                     order_column = self._columns[order_field]
4631                     if order_column._classic_read:
4632                         inner_clause = '"%s"."%s"' % (self._table, order_field)
4633                     elif order_column._type == 'many2one':
4634                         inner_clause = self._generate_m2o_order_by(order_field, query)
4635                     else:
4636                         continue  # ignore non-readable or "non-joinable" fields
4637                 elif order_field in self._inherit_fields:
4638                     parent_obj = self.pool[self._inherit_fields[order_field][3]]
4639                     order_column = parent_obj._columns[order_field]
4640                     if order_column._classic_read:
4641                         inner_clause = self._inherits_join_calc(order_field, query)
4642                     elif order_column._type == 'many2one':
4643                         inner_clause = self._generate_m2o_order_by(order_field, query)
4644                     else:
4645                         continue  # ignore non-readable or "non-joinable" fields
4646                 else:
4647                     raise ValueError( _("Sorting field %s not found on model %s") %( order_field, self._name))
4648                 if inner_clause:
4649                     if isinstance(inner_clause, list):
4650                         for clause in inner_clause:
4651                             order_by_elements.append("%s %s" % (clause, order_direction))
4652                     else:
4653                         order_by_elements.append("%s %s" % (inner_clause, order_direction))
4654             if order_by_elements:
4655                 order_by_clause = ",".join(order_by_elements)
4656
4657         return order_by_clause and (' ORDER BY %s ' % order_by_clause) or ''
4658
4659     def _search(self, cr, user, args, offset=0, limit=None, order=None, context=None, count=False, access_rights_uid=None):
4660         """
4661         Private implementation of search() method, allowing specifying the uid to use for the access right check.
4662         This is useful for example when filling in the selection list for a drop-down and avoiding access rights errors,
4663         by specifying ``access_rights_uid=1`` to bypass access rights check, but not ir.rules!
4664         This is ok at the security level because this method is private and not callable through XML-RPC.
4665
4666         :param access_rights_uid: optional user ID to use when checking access rights
4667                                   (not for ir.rules, this is only for ir.model.access)
4668         """
4669         if context is None:
4670             context = {}
4671         self.check_access_rights(cr, access_rights_uid or user, 'read')
4672
4673         # For transient models, restrict acces to the current user, except for the super-user
4674         if self.is_transient() and self._log_access and user != SUPERUSER_ID:
4675             args = expression.AND(([('create_uid', '=', user)], args or []))
4676
4677         query = self._where_calc(cr, user, args, context=context)
4678         self._apply_ir_rules(cr, user, query, 'read', context=context)
4679         order_by = self._generate_order_by(order, query)
4680         from_clause, where_clause, where_clause_params = query.get_sql()
4681
4682         where_str = where_clause and (" WHERE %s" % where_clause) or ''
4683
4684         if count:
4685             # Ignore order, limit and offset when just counting, they don't make sense and could
4686             # hurt performance
4687             query_str = 'SELECT count(1) FROM ' + from_clause + where_str
4688             cr.execute(query_str, where_clause_params)
4689             res = cr.fetchone()
4690             return res[0]
4691
4692         limit_str = limit and ' limit %d' % limit or ''
4693         offset_str = offset and ' offset %d' % offset or ''
4694         query_str = 'SELECT "%s".id FROM ' % self._table + from_clause + where_str + order_by + limit_str + offset_str
4695         cr.execute(query_str, where_clause_params)
4696         res = cr.fetchall()
4697
4698         # TDE note: with auto_join, we could have several lines about the same result
4699         # i.e. a lead with several unread messages; we uniquify the result using
4700         # a fast way to do it while preserving order (http://www.peterbe.com/plog/uniqifiers-benchmark)
4701         def _uniquify_list(seq):
4702             seen = set()
4703             return [x for x in seq if x not in seen and not seen.add(x)]
4704
4705         return _uniquify_list([x[0] for x in res])
4706
4707     # returns the different values ever entered for one field
4708     # this is used, for example, in the client when the user hits enter on
4709     # a char field
4710     def distinct_field_get(self, cr, uid, field, value, args=None, offset=0, limit=None):
4711         if not args:
4712             args = []
4713         if field in self._inherit_fields:
4714             return self.pool[self._inherit_fields[field][0]].distinct_field_get(cr, uid, field, value, args, offset, limit)
4715         else:
4716             return self._columns[field].search(cr, self, args, field, value, offset, limit, uid)
4717
4718     def copy_data(self, cr, uid, id, default=None, context=None):
4719         """
4720         Copy given record's data with all its fields values
4721
4722         :param cr: database cursor
4723         :param uid: current user id
4724         :param id: id of the record to copy
4725         :param default: field values to override in the original values of the copied record
4726         :type default: dictionary
4727         :param context: context arguments, like lang, time zone
4728         :type context: dictionary
4729         :return: dictionary containing all the field values
4730         """
4731
4732         if context is None:
4733             context = {}
4734
4735         # avoid recursion through already copied records in case of circular relationship
4736         seen_map = context.setdefault('__copy_data_seen', {})
4737         if id in seen_map.setdefault(self._name, []):
4738             return
4739         seen_map[self._name].append(id)
4740
4741         if default is None:
4742             default = {}
4743         if 'state' not in default:
4744             if 'state' in self._defaults:
4745                 if callable(self._defaults['state']):
4746                     default['state'] = self._defaults['state'](self, cr, uid, context)
4747                 else:
4748                     default['state'] = self._defaults['state']
4749
4750         # build a black list of fields that should not be copied
4751         blacklist = set(MAGIC_COLUMNS + ['parent_left', 'parent_right'])
4752         def blacklist_given_fields(obj):
4753             # blacklist the fields that are given by inheritance
4754             for other, field_to_other in obj._inherits.items():
4755                 blacklist.add(field_to_other)
4756                 if field_to_other in default:
4757                     # all the fields of 'other' are given by the record: default[field_to_other],
4758                     # except the ones redefined in self
4759                     blacklist.update(set(self.pool[other]._all_columns) - set(self._columns))
4760                 else:
4761                     blacklist_given_fields(self.pool[other])
4762             # blacklist deprecated fields
4763             for name, field in obj._columns.items():
4764                 if field.deprecated:
4765                     blacklist.add(name)
4766
4767         blacklist_given_fields(self)
4768
4769
4770         fields_to_copy = dict((f,fi) for f, fi in self._all_columns.iteritems()
4771                                      if f not in default
4772                                      if f not in blacklist
4773                                      if not isinstance(fi.column, fields.function))
4774
4775         data = self.read(cr, uid, [id], fields_to_copy.keys(), context=context)
4776         if data:
4777             data = data[0]
4778         else:
4779             raise IndexError( _("Record #%d of %s not found, cannot copy!") %( id, self._name))
4780
4781         res = dict(default)
4782         for f, colinfo in fields_to_copy.iteritems():
4783             field = colinfo.column
4784             if field._type == 'many2one':
4785                 res[f] = data[f] and data[f][0]
4786             elif field._type == 'one2many':
4787                 other = self.pool[field._obj]
4788                 # duplicate following the order of the ids because we'll rely on
4789                 # it later for copying translations in copy_translation()!
4790                 lines = [other.copy_data(cr, uid, line_id, context=context) for line_id in sorted(data[f])]
4791                 # the lines are duplicated using the wrong (old) parent, but then
4792                 # are reassigned to the correct one thanks to the (0, 0, ...)
4793                 res[f] = [(0, 0, line) for line in lines if line]
4794             elif field._type == 'many2many':
4795                 res[f] = [(6, 0, data[f])]
4796             else:
4797                 res[f] = data[f]
4798
4799         return res
4800
4801     def copy_translations(self, cr, uid, old_id, new_id, context=None):
4802         if context is None:
4803             context = {}
4804
4805         # avoid recursion through already copied records in case of circular relationship
4806         seen_map = context.setdefault('__copy_translations_seen',{})
4807         if old_id in seen_map.setdefault(self._name,[]):
4808             return
4809         seen_map[self._name].append(old_id)
4810
4811         trans_obj = self.pool.get('ir.translation')
4812         # TODO it seems fields_get can be replaced by _all_columns (no need for translation)
4813         fields = self.fields_get(cr, uid, context=context)
4814
4815         for field_name, field_def in fields.items():
4816             # removing the lang to compare untranslated values
4817             context_wo_lang = dict(context, lang=None)
4818             old_record, new_record = self.browse(cr, uid, [old_id, new_id], context=context_wo_lang)
4819             # we must recursively copy the translations for o2o and o2m
4820             if field_def['type'] == 'one2many':
4821                 target_obj = self.pool[field_def['relation']]
4822                 # here we rely on the order of the ids to match the translations
4823                 # as foreseen in copy_data()
4824                 old_children = sorted(r.id for r in old_record[field_name])
4825                 new_children = sorted(r.id for r in new_record[field_name])
4826                 for (old_child, new_child) in zip(old_children, new_children):
4827                     target_obj.copy_translations(cr, uid, old_child, new_child, context=context)
4828             # and for translatable fields we keep them for copy
4829             elif field_def.get('translate'):
4830                 if field_name in self._columns:
4831                     trans_name = self._name + "," + field_name
4832                     target_id = new_id
4833                     source_id = old_id
4834                 elif field_name in self._inherit_fields:
4835                     trans_name = self._inherit_fields[field_name][0] + "," + field_name
4836                     # get the id of the parent record to set the translation
4837                     inherit_field_name = self._inherit_fields[field_name][1]
4838                     target_id = new_record[inherit_field_name].id
4839                     source_id = old_record[inherit_field_name].id
4840                 else:
4841                     continue
4842
4843                 trans_ids = trans_obj.search(cr, uid, [
4844                         ('name', '=', trans_name),
4845                         ('res_id', '=', source_id)
4846                 ])
4847                 user_lang = context.get('lang')
4848                 for record in trans_obj.read(cr, uid, trans_ids, context=context):
4849                     del record['id']
4850                     # remove source to avoid triggering _set_src
4851                     del record['source']
4852                     record.update({'res_id': target_id})
4853                     if user_lang and user_lang == record['lang']:
4854                         # 'source' to force the call to _set_src
4855                         # 'value' needed if value is changed in copy(), want to see the new_value
4856                         record['source'] = old_record[field_name]
4857                         record['value'] = new_record[field_name]
4858                     trans_obj.create(cr, uid, record, context=context)
4859
4860
4861     def copy(self, cr, uid, id, default=None, context=None):
4862         """
4863         Duplicate record with given id updating it with default values
4864
4865         :param cr: database cursor
4866         :param uid: current user id
4867         :param id: id of the record to copy
4868         :param default: dictionary of field values to override in the original values of the copied record, e.g: ``{'field_name': overriden_value, ...}``
4869         :type default: dictionary
4870         :param context: context arguments, like lang, time zone
4871         :type context: dictionary
4872         :return: id of the newly created record
4873
4874         """
4875         if context is None:
4876             context = {}
4877         context = context.copy()
4878         data = self.copy_data(cr, uid, id, default, context)
4879         new_id = self.create(cr, uid, data, context)
4880         self.copy_translations(cr, uid, id, new_id, context)
4881         return new_id
4882
4883     def exists(self, cr, uid, ids, context=None):
4884         """Checks whether the given id or ids exist in this model,
4885            and return the list of ids that do. This is simple to use for
4886            a truth test on a browse_record::
4887
4888                if record.exists():
4889                    pass
4890
4891            :param ids: id or list of ids to check for existence
4892            :type ids: int or [int]
4893            :return: the list of ids that currently exist, out of
4894                     the given `ids`
4895         """
4896         if type(ids) in (int, long):
4897             ids = [ids]
4898         if not ids:
4899             return []
4900         query = 'SELECT id FROM "%s"' % self._table
4901         cr.execute(query + "WHERE ID IN %s", (tuple(ids),))
4902         return [x[0] for x in cr.fetchall()]
4903
4904     def check_recursion(self, cr, uid, ids, context=None, parent=None):
4905         _logger.warning("You are using deprecated %s.check_recursion(). Please use the '_check_recursion()' instead!" % \
4906                         self._name)
4907         assert parent is None or parent in self._columns or parent in self._inherit_fields,\
4908                     "The 'parent' parameter passed to check_recursion() must be None or a valid field name"
4909         return self._check_recursion(cr, uid, ids, context, parent)
4910
4911     def _check_recursion(self, cr, uid, ids, context=None, parent=None):
4912         """
4913         Verifies that there is no loop in a hierarchical structure of records,
4914         by following the parent relationship using the **parent** field until a loop
4915         is detected or until a top-level record is found.
4916
4917         :param cr: database cursor
4918         :param uid: current user id
4919         :param ids: list of ids of records to check
4920         :param parent: optional parent field name (default: ``self._parent_name = parent_id``)
4921         :return: **True** if the operation can proceed safely, or **False** if an infinite loop is detected.
4922         """
4923         if not parent:
4924             parent = self._parent_name
4925
4926         # must ignore 'active' flag, ir.rules, etc. => direct SQL query
4927         query = 'SELECT "%s" FROM "%s" WHERE id = %%s' % (parent, self._table)
4928         for id in ids:
4929             current_id = id
4930             while current_id is not None:
4931                 cr.execute(query, (current_id,))
4932                 result = cr.fetchone()
4933                 current_id = result[0] if result else None
4934                 if current_id == id:
4935                     return False
4936         return True
4937
4938     def _check_m2m_recursion(self, cr, uid, ids, field_name):
4939         """
4940         Verifies that there is no loop in a hierarchical structure of records,
4941         by following the parent relationship using the **parent** field until a loop
4942         is detected or until a top-level record is found.
4943
4944         :param cr: database cursor
4945         :param uid: current user id
4946         :param ids: list of ids of records to check
4947         :param field_name: field to check
4948         :return: **True** if the operation can proceed safely, or **False** if an infinite loop is detected.
4949         """
4950
4951         field = self._all_columns.get(field_name)
4952         field = field.column if field else None
4953         if not field or field._type != 'many2many' or field._obj != self._name:
4954             # field must be a many2many on itself
4955             raise ValueError('invalid field_name: %r' % (field_name,))
4956
4957         query = 'SELECT distinct "%s" FROM "%s" WHERE "%s" IN %%s' % (field._id2, field._rel, field._id1)
4958         ids_parent = ids[:]
4959         while ids_parent:
4960             ids_parent2 = []
4961             for i in range(0, len(ids_parent), cr.IN_MAX):
4962                 j = i + cr.IN_MAX
4963                 sub_ids_parent = ids_parent[i:j]
4964                 cr.execute(query, (tuple(sub_ids_parent),))
4965                 ids_parent2.extend(filter(None, map(lambda x: x[0], cr.fetchall())))
4966             ids_parent = ids_parent2
4967             for i in ids_parent:
4968                 if i in ids:
4969                     return False
4970         return True
4971
4972     def _get_external_ids(self, cr, uid, ids, *args, **kwargs):
4973         """Retrieve the External ID(s) of any database record.
4974
4975         **Synopsis**: ``_get_xml_ids(cr, uid, ids) -> { 'id': ['module.xml_id'] }``
4976
4977         :return: map of ids to the list of their fully qualified External IDs
4978                  in the form ``module.key``, or an empty list when there's no External
4979                  ID for a record, e.g.::
4980
4981                      { 'id': ['module.ext_id', 'module.ext_id_bis'],
4982                        'id2': [] }
4983         """
4984         ir_model_data = self.pool.get('ir.model.data')
4985         data_ids = ir_model_data.search(cr, uid, [('model', '=', self._name), ('res_id', 'in', ids)])
4986         data_results = ir_model_data.read(cr, uid, data_ids, ['module', 'name', 'res_id'])
4987         result = {}
4988         for id in ids:
4989             # can't use dict.fromkeys() as the list would be shared!
4990             result[id] = []
4991         for record in data_results:
4992             result[record['res_id']].append('%(module)s.%(name)s' % record)
4993         return result
4994
4995     def get_external_id(self, cr, uid, ids, *args, **kwargs):
4996         """Retrieve the External ID of any database record, if there
4997         is one. This method works as a possible implementation
4998         for a function field, to be able to add it to any
4999         model object easily, referencing it as ``Model.get_external_id``.
5000
5001         When multiple External IDs exist for a record, only one
5002         of them is returned (randomly).
5003
5004         :return: map of ids to their fully qualified XML ID,
5005                  defaulting to an empty string when there's none
5006                  (to be usable as a function field),
5007                  e.g.::
5008
5009                      { 'id': 'module.ext_id',
5010                        'id2': '' }
5011         """
5012         results = self._get_xml_ids(cr, uid, ids)
5013         for k, v in results.iteritems():
5014             if results[k]:
5015                 results[k] = v[0]
5016             else:
5017                 results[k] = ''
5018         return results
5019
5020     # backwards compatibility
5021     get_xml_id = get_external_id
5022     _get_xml_ids = _get_external_ids
5023
5024     def print_report(self, cr, uid, ids, name, data, context=None):
5025         """
5026         Render the report `name` for the given IDs. The report must be defined
5027         for this model, not another.
5028         """
5029         report = self.pool['ir.actions.report.xml']._lookup_report(cr, name)
5030         assert self._name == report.table
5031         return report.create(cr, uid, ids, data, context)
5032
5033     # Transience
5034     def is_transient(self):
5035         """ Return whether the model is transient.
5036
5037         See :class:`TransientModel`.
5038
5039         """
5040         return self._transient
5041
5042     def _transient_clean_rows_older_than(self, cr, seconds):
5043         assert self._transient, "Model %s is not transient, it cannot be vacuumed!" % self._name
5044         # Never delete rows used in last 5 minutes
5045         seconds = max(seconds, 300)
5046         query = ("SELECT id FROM " + self._table + " WHERE"
5047             " COALESCE(write_date, create_date, (now() at time zone 'UTC'))::timestamp"
5048             " < ((now() at time zone 'UTC') - interval %s)")
5049         cr.execute(query, ("%s seconds" % seconds,))
5050         ids = [x[0] for x in cr.fetchall()]
5051         self.unlink(cr, SUPERUSER_ID, ids)
5052
5053     def _transient_clean_old_rows(self, cr, max_count):
5054         # Check how many rows we have in the table
5055         cr.execute("SELECT count(*) AS row_count FROM " + self._table)
5056         res = cr.fetchall()
5057         if res[0][0] <= max_count:
5058             return  # max not reached, nothing to do
5059         self._transient_clean_rows_older_than(cr, 300)
5060
5061     def _transient_vacuum(self, cr, uid, force=False):
5062         """Clean the transient records.
5063
5064         This unlinks old records from the transient model tables whenever the
5065         "_transient_max_count" or "_max_age" conditions (if any) are reached.
5066         Actual cleaning will happen only once every "_transient_check_time" calls.
5067         This means this method can be called frequently called (e.g. whenever
5068         a new record is created).
5069         Example with both max_hours and max_count active:
5070         Suppose max_hours = 0.2 (e.g. 12 minutes), max_count = 20, there are 55 rows in the
5071         table, 10 created/changed in the last 5 minutes, an additional 12 created/changed between
5072         5 and 10 minutes ago, the rest created/changed more then 12 minutes ago.
5073         - age based vacuum will leave the 22 rows created/changed in the last 12 minutes
5074         - count based vacuum will wipe out another 12 rows. Not just 2, otherwise each addition
5075           would immediately cause the maximum to be reached again.
5076         - the 10 rows that have been created/changed the last 5 minutes will NOT be deleted
5077         """
5078         assert self._transient, "Model %s is not transient, it cannot be vacuumed!" % self._name
5079         _transient_check_time = 20          # arbitrary limit on vacuum executions
5080         self._transient_check_count += 1
5081         if not force and (self._transient_check_count < _transient_check_time):
5082             return True  # no vacuum cleaning this time
5083         self._transient_check_count = 0
5084
5085         # Age-based expiration
5086         if self._transient_max_hours:
5087             self._transient_clean_rows_older_than(cr, self._transient_max_hours * 60 * 60)
5088
5089         # Count-based expiration
5090         if self._transient_max_count:
5091             self._transient_clean_old_rows(cr, self._transient_max_count)
5092
5093         return True
5094
5095     def resolve_2many_commands(self, cr, uid, field_name, commands, fields=None, context=None):
5096         """ Serializes one2many and many2many commands into record dictionaries
5097             (as if all the records came from the database via a read()).  This
5098             method is aimed at onchange methods on one2many and many2many fields.
5099
5100             Because commands might be creation commands, not all record dicts
5101             will contain an ``id`` field.  Commands matching an existing record
5102             will have an ``id``.
5103
5104             :param field_name: name of the one2many or many2many field matching the commands
5105             :type field_name: str
5106             :param commands: one2many or many2many commands to execute on ``field_name``
5107             :type commands: list((int|False, int|False, dict|False))
5108             :param fields: list of fields to read from the database, when applicable
5109             :type fields: list(str)
5110             :returns: records in a shape similar to that returned by ``read()``
5111                 (except records may be missing the ``id`` field if they don't exist in db)
5112             :rtype: list(dict)
5113         """
5114         result = []             # result (list of dict)
5115         record_ids = []         # ids of records to read
5116         updates = {}            # {id: dict} of updates on particular records
5117
5118         for command in commands:
5119             if not isinstance(command, (list, tuple)):
5120                 record_ids.append(command)
5121             elif command[0] == 0:
5122                 result.append(command[2])
5123             elif command[0] == 1:
5124                 record_ids.append(command[1])
5125                 updates.setdefault(command[1], {}).update(command[2])
5126             elif command[0] in (2, 3):
5127                 record_ids = [id for id in record_ids if id != command[1]]
5128             elif command[0] == 4:
5129                 record_ids.append(command[1])
5130             elif command[0] == 5:
5131                 result, record_ids = [], []
5132             elif command[0] == 6:
5133                 result, record_ids = [], list(command[2])
5134
5135         # read the records and apply the updates
5136         other_model = self.pool[self._all_columns[field_name].column._obj]
5137         for record in other_model.read(cr, uid, record_ids, fields=fields, context=context):
5138             record.update(updates.get(record['id'], {}))
5139             result.append(record)
5140
5141         return result
5142
5143     # for backward compatibility
5144     resolve_o2m_commands_to_record_dicts = resolve_2many_commands
5145
5146     def search_read(self, cr, uid, domain=None, fields=None, offset=0, limit=None, order=None, context=None):
5147         """
5148         Performs a ``search()`` followed by a ``read()``.
5149
5150         :param cr: database cursor
5151         :param user: current user id
5152         :param domain: Search domain, see ``args`` parameter in ``search()``. Defaults to an empty domain that will match all records.
5153         :param fields: List of fields to read, see ``fields`` parameter in ``read()``. Defaults to all fields.
5154         :param offset: Number of records to skip, see ``offset`` parameter in ``search()``. Defaults to 0.
5155         :param limit: Maximum number of records to return, see ``limit`` parameter in ``search()``. Defaults to no limit.
5156         :param order: Columns to sort result, see ``order`` parameter in ``search()``. Defaults to no sort.
5157         :param context: context arguments.
5158         :return: List of dictionaries containing the asked fields.
5159         :rtype: List of dictionaries.
5160
5161         """
5162         record_ids = self.search(cr, uid, domain or [], offset=offset, limit=limit, order=order, context=context)
5163         if not record_ids:
5164             return []
5165
5166         if fields and fields == ['id']:
5167             # shortcut read if we only want the ids
5168             return [{'id': id} for id in record_ids]
5169
5170         # read() ignores active_test, but it would forward it to any downstream search call
5171         # (e.g. for x2m or function fields), and this is not the desired behavior, the flag
5172         # was presumably only meant for the main search().
5173         # TODO: Move this to read() directly?                                                                                                
5174         read_ctx = dict(context or {})                                                                                                       
5175         read_ctx.pop('active_test', None)                                                                                                    
5176                                                                                                                                              
5177         result = self.read(cr, uid, record_ids, fields, context=read_ctx) 
5178         if len(result) <= 1:
5179             return result
5180
5181         # reorder read
5182         index = dict((r['id'], r) for r in result)
5183         return [index[x] for x in record_ids if x in index]
5184
5185     def _register_hook(self, cr):
5186         """ stuff to do right after the registry is built """
5187         pass
5188
5189     def __getattr__(self, name):
5190         if name.startswith('signal_'):
5191             signal_name = name[len('signal_'):]
5192             assert signal_name
5193             return (lambda *args, **kwargs:
5194                     self.signal_workflow(*args, signal=signal_name, **kwargs))
5195         get = getattr(super(BaseModel, self), '__getattr__', None)
5196         if get is not None: return get(name)
5197         raise AttributeError(
5198             "'%s' object has no attribute '%s'" % (type(self).__name__, name))
5199
5200 # keep this import here, at top it will cause dependency cycle errors
5201 import expression
5202
5203 class Model(BaseModel):
5204     """Main super-class for regular database-persisted OpenERP models.
5205
5206     OpenERP models are created by inheriting from this class::
5207
5208         class user(Model):
5209             ...
5210
5211     The system will later instantiate the class once per database (on
5212     which the class' module is installed).
5213     """
5214     _auto = True
5215     _register = False # not visible in ORM registry, meant to be python-inherited only
5216     _transient = False # True in a TransientModel
5217
5218 class TransientModel(BaseModel):
5219     """Model super-class for transient records, meant to be temporarily
5220        persisted, and regularly vaccuum-cleaned.
5221
5222        A TransientModel has a simplified access rights management,
5223        all users can create new records, and may only access the
5224        records they created. The super-user has unrestricted access
5225        to all TransientModel records.
5226     """
5227     _auto = True
5228     _register = False # not visible in ORM registry, meant to be python-inherited only
5229     _transient = True
5230
5231 class AbstractModel(BaseModel):
5232     """Abstract Model super-class for creating an abstract class meant to be
5233        inherited by regular models (Models or TransientModels) but not meant to
5234        be usable on its own, or persisted.
5235
5236        Technical note: we don't want to make AbstractModel the super-class of
5237        Model or BaseModel because it would not make sense to put the main
5238        definition of persistence methods such as create() in it, and still we
5239        should be able to override them within an AbstractModel.
5240        """
5241     _auto = False # don't create any database backend for AbstractModels
5242     _register = False # not visible in ORM registry, meant to be python-inherited only
5243     _transient = False
5244
5245 def itemgetter_tuple(items):
5246     """ Fixes itemgetter inconsistency (useful in some cases) of not returning
5247     a tuple if len(items) == 1: always returns an n-tuple where n = len(items)
5248     """
5249     if len(items) == 0:
5250         return lambda a: ()
5251     if len(items) == 1:
5252         return lambda gettable: (gettable[items[0]],)
5253     return operator.itemgetter(*items)
5254
5255 class ImportWarning(Warning):
5256     """ Used to send warnings upwards the stack during the import process
5257     """
5258     pass
5259
5260 def convert_pgerror_23502(model, fields, info, e):
5261     m = re.match(r'^null value in column "(?P<field>\w+)" violates '
5262                  r'not-null constraint\n',
5263                  str(e))
5264     field_name = m and m.group('field')
5265     if not m or field_name not in fields:
5266         return {'message': unicode(e)}
5267     message = _(u"Missing required value for the field '%s'.") % field_name
5268     field = fields.get(field_name)
5269     if field:
5270         message = _(u"Missing required value for the field '%s' (%s)") % (field['string'], field_name)
5271     return {
5272         'message': message,
5273         'field': field_name,
5274     }
5275
5276 def convert_pgerror_23505(model, fields, info, e):
5277     m = re.match(r'^duplicate key (?P<field>\w+) violates unique constraint',
5278                  str(e))
5279     field_name = m and m.group('field')
5280     if not m or field_name not in fields:
5281         return {'message': unicode(e)}
5282     message = _(u"The value for the field '%s' already exists.") % field_name
5283     field = fields.get(field_name)
5284     if field:
5285         message = _(u"%s This might be '%s' in the current model, or a field "
5286                     u"of the same name in an o2m.") % (message, field['string'])
5287     return {
5288         'message': message,
5289         'field': field_name,
5290     }
5291
5292 PGERROR_TO_OE = collections.defaultdict(
5293     # shape of mapped converters
5294     lambda: (lambda model, fvg, info, pgerror: {'message': unicode(pgerror)}), {
5295     # not_null_violation
5296     '23502': convert_pgerror_23502,
5297     # unique constraint error
5298     '23505': convert_pgerror_23505,
5299 })
5300 # vim:expandtab:smartindent:tabstop=4:softtabstop=4:shiftwidth=4: